• Matéria: História
  • Autor: ana9649
  • Perguntado 7 anos atrás

quais foram os principais países a reconhecerem a independência do Brasil?quais eram seus interesses?

Respostas

respondido por: sergioganda1p7ct8q
5

Inglaterra e EUA. Eles queriam comercializar com o Brasil,  tentar fazer comércios vantajosos para com eles, sobre um país que precisava muito de se iniciar com o desenvolvimento em geral.

Perguntas similares