• Matéria: História
  • Autor: janyellenascimento21
  • Perguntado 5 anos atrás

O que aconteceu com os Estados Unidos após a conquista da Independência?​

Respostas

respondido por: babykitty
0

oi.

Resposta:

Após conquistar sua independência no final do século XVIII, os Estados Unidos da América consolidaram-se como Estado-nação e passaram por grandes transformações durante o século XIX.

Espero ter ajudado.

respondido por: marianaguimara
0

foi instituida uma constituição nos EUA em 1787, instaurou uma república, o presidencialismo, o federalismo (ou seja a autonomia das provincias, os estados), e o voto passou a ser masculino e censitário (depende da renda)

Perguntas similares