O Brasil nunca foi uma colônia dominada por países europeus. Sempre foi um país independente
Verdadeiro ou falso?
Respostas
respondido por:
1
Resposta:
falso
Explicação:
na história vemos que o Brasil foi dominado por países europeus e assim foi um império Português Por muitos anos
espero ter ajudado
Perguntas similares
3 anos atrás
3 anos atrás
3 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás