Respostas
respondido por:
1
Resposta:
Os Estados Unidos foram o primeiro país a reconhecer a Independência do Brasil, em 1824. ... No entanto, por trás dessa doutrina de não intervenção e de não colonização, havia o interesse em diminuir a influência inglesa e em obter, com o reconhecimento, vantagens comerciais para os Estados Unidos.
respondido por:
1
Resposta:
Os EUA tinham o interesse te vender suas mercadorias para os países recém-independentes, exercendo influência sobre o continente americano.
Perguntas similares
4 anos atrás
4 anos atrás
4 anos atrás
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás