• Matéria: Geografia
  • Autor: viihribeiro862
  • Perguntado 6 anos atrás

a partir de quando os estados unidos passaram a influenciar na vida econômica e cultural do mundo?

Respostas

respondido por: VitorHW
4

principalmente após a primeira guerra mundial,onde se consolidaram como potência mundial que devia ser alcançada

Perguntas similares