• Matéria: Geografia
  • Autor: danieldo10
  • Perguntado 8 anos atrás

O que o estado unidos iniciou com o fim da guerra fria?

Respostas

respondido por: Anônimo
1
Após o fim da Guerra Fria os Estados Unidos iniciaram uma escalada de Guerras e intervenções em conflitos internacionais,consolidando seu poderio militar,cultural e econômico,além de ampliar sua capacidade de influênciar nações e organizações internacionais.
Perguntas similares