Respostas
respondido por:
4
Os Estados Unidos visavam fortalecer os pactos econômicos com o Brasil.
respondido por:
1
Resposta:
Os reais interesses dos Estados Unidos na Independência do Brasil , havia o interesse em diminuir a influência inglesa e em obter, com o reconhecimento, vantagens comerciais para os Estados Unidos
Explicação:
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás