• Matéria: História
  • Autor: caiomoises2006
  • Perguntado 6 anos atrás

Por que os Estados Unidos foram o primeiro país a reconhecer a independência das colônias na América?

Respostas

respondido por: AnnedeGrennGables
5

Olá!!

Os Estados Unidos foi o primeiro país a reconhecer a Independência do Brasil, em 1824. No entanto, por trás dessa doutrina de não-intervenção e de não-colonização havia o interesse em diminuir a influência inglesa e em obter, com o reconhecimento, vantagens comerciais para os Estados Unidos.

Espero ter ajudado!!

Perguntas similares