• Matéria: História
  • Autor: luizphelipealbuquerq
  • Perguntado 5 anos atrás

você considera os estados unidos um império?

ajuda aeee​

Respostas

respondido por: rebecascabrall
1

Resposta:

Os EUA têm sido um império, desde pelo menos 1803, quando Thomas Jefferson comprou o território da Louisiana (…) O império estendeu-se ao exterior, adquirindo colônias, de Porto Rico e Filipinas ao Havaí e Alasca", escreveu.

Explicação:

Perguntas similares