Respostas
respondido por:
1
Resposta:
Após conquistar sua independência no final do século XVIII, os Estados Unidos da América consolidaram-se como Estado-nação e passaram por grandes transformações durante o século XIX. Entre as mudanças ocorridas, destacou-se a grande expansão territorial que o país sofreu, seja pela compra de territórios, seja pela guerra.
Explicação:
jocimara122017:
Espero ter te ajudado Renânia
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás