Respostas
respondido por:
1
Resposta:
Os EUA têm sido um império, desde pelo menos 1803, quando Thomas Jefferson comprou o território da Louisiana (…) O império estendeu-se ao exterior, adquirindo colônias, de Porto Rico e Filipinas ao Havaí e Alasca", escreveu.
Explicação:
Perguntas similares
4 anos atrás
4 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás