• Matéria: História
  • Autor: luquinhasantosgarcia
  • Perguntado 3 anos atrás

O Brasil nunca foi uma colônia dominada por países europeus. Sempre foi um país independente
Verdadeiro ou falso?

Respostas

respondido por: rayzinho452
1

Resposta:

falso

Explicação:

na história vemos que o Brasil foi dominado por países europeus e assim foi um império Português Por muitos anos

espero ter ajudado

Perguntas similares