• Matéria: História
  • Autor: LuanDias001
  • Perguntado 8 anos atrás

O que significa dizer que o Brasil foi colonizado por Portugal?

Respostas

respondido por: Alvinho2005
4
Significa que Portugal (antigamente) tinha tomado posse do Brasil

Espero ter te ajudado!
Perguntas similares