Respostas
respondido por:
0
Resposta:
Após conquistar sua independência no final do século XVIII, os Estados Unidos da América consolidaram-se como Estado-nação e passaram por grandes transformações durante o século XIX. Entre as mudanças ocorridas, destacou-se a grande expansão territorial que o país sofreu, seja pela compra de territórios, seja pela guerra.
Expansão territorial
Ao conquistar sua independência – oficialmente declarada em 1776, mas somente reconhecida pela Inglaterra em 1783 –, os Estados Unidos estabeleceram-se como uma república, adotando o sistema federalista que estipulava a autonomia dos estados americanos. Os primeiros presidentes da história norte-americana atuaram visando, principalmente, à consolidação política dessa nação.
Perguntas similares
3 anos atrás
3 anos atrás
3 anos atrás
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás