• Matéria: Geografia
  • Autor: Ederrrr
  • Perguntado 6 anos atrás

o que aconteceu com os Estados Unidos e a hegemonia europeia após a 1°- Guerra Mundial?

Respostas

respondido por: EliasDB
6

Resposta: Após a Primeira Guerra Mundial, com a emergência dos Estados Unidos na condição de potência industrial, a hegemonia europeia começou a declinar, apesar de manter até os dias atuais grande presença política, econômica e científica nas relações internacionais.

Perguntas similares