• Matéria: Geografia
  • Autor: karlenaregis
  • Perguntado 3 anos atrás

Os estados Unidos se tomarram independentes antes o depois do Brasil

Respostas

respondido por: camormcatalao
0
Estados Unidos se tornou independente antes do Brasil !

4 de julho de 1776, a data em que foi impressa a Declaração de Independência, quando se considera que nasceu o país e os americanos celebram seu Independence Day com diferentes atividades, sendo uma das mais populares a queima de fogos, que acontece nos quatro cantos do país.

Já no Brasil, dia 7 de setembro de 1822, D. Pedro 1º proclamou o grito de independência às margens do rio Ipiranga e o Brasil se consolidou como uma nação independente. Desde 1946, por lei federal, a data é feriado nacional.
Perguntas similares