• Matéria: História
  • Autor: Terezamaria123
  • Perguntado 5 anos atrás

Os Estados Unidos foram o primeiro país estrangeiro a conhecer a independência do Brasil em virtude dos seus interesses comerciais na região (verdadeiro)ou (falso)
Ajudem.....​

Respostas

respondido por: riansilva87
0

Resposta:

verdadeiro

Explicação:

Os EUA foram o primeiro país a reconhecer a independência do Brasil em 1824 . Depois o México e a Argentina, em 1825.

Perguntas similares