• Matéria: História
  • Autor: deiverson666
  • Perguntado 5 anos atrás


os estados unidos enriqueceu após a guerra civil,onde passaram a praticar o imperialismo​

Respostas

respondido por: liliandantas882
7

Explicação:

iniciaram iniciaram um processo de expansão territorial sobre outros locais na África Ásia e Oceania


deiverson666: vlw❤
Perguntas similares