• Matéria: História
  • Autor: EstefaneViiick6
  • Perguntado 9 anos atrás

Por que os Estados Unidos reconheceram a independência do Brasil? Urgente!

Respostas

respondido por: brendarmani
1
Reconheceram a independência do Brasil pra diminuir a influência da Inglaterra no continente e captar vantagens comerciais para o Estados Unidos.

EstefaneViiick6: vlw!
brendarmani: Não tem de que
Perguntas similares