Respostas
respondido por:
3
Resposta:
Os Estados Unidos foram o primeiro país a reconhecer a Independência do Brasil, em 1824. ... No entanto, por trás dessa doutrina de não - intervenção e de não-colonização, havia o interesse em diminuir a influência inglesa e em obter, com o reconhecimento, vantagens comerciais para os Estados Unidos.
Explicação:
prisciellycolman:
obrigadaaa
respondido por:
0
Os Estados Unidos foram o primeiro país a reconhecer a Independência do Brasil, em 1824. ... No entanto, por trás dessa doutrina de não - intervenção e de não-colonização, havia o interesse em diminuir a influência inglesa e em obter, com o reconhecimento, vantagens comerciais para os Estados Unidos.
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás