• Matéria: História
  • Autor: sarahohana2505
  • Perguntado 5 anos atrás

qual foi a influência exercida pelos Estados Unidos durante a história do Brasil?​

Respostas

respondido por: marinabritosous
0

Resposta:

As relações entre Brasil e Estados Unidos englobam o conjunto de relações diplomáticas, econômicas, históricas e culturais estabelecidas entre o Brasil e os Estados Unidos. 

Perguntas similares