Respostas
respondido por:
3
Resposta:
As relações entre Brasil e Estados Unidos englobam o conjunto de relações diplomáticas, econômicas, históricas e culturais estabelecidas entre o Brasil e os Estados Unidos. Estão entre as mais antigas do continente americano, sendo os Estados Unidos o primeiro país a reconhecer a independência brasileira.
espero ter ajudado:)
michaeng60:
Obrigada
Perguntas similares
4 anos atrás
4 anos atrás
4 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás