• Matéria: Geografia
  • Autor: Júlia9283
  • Perguntado 7 anos atrás

por favor, alguém pode me ajudar ? é pra amanhã !!!​

Anexos:

Respostas

respondido por: amigaszuadas
0
As relações entre Brasil e Estados Unidos englobam o conjunto de relações diplomáticas, económicas, históricas e culturais estabelecidas entre o Brasil e os Estados Unidos. Estão entre as mais antigas do continente americano, sendo os Estados Unidos o primeiro país a reconhecer a independência brasileira. Atualmente, os Estados Unidos são o segundo maior parceiro comercial do Brasil.[1]
Perguntas similares