• Matéria: Geografia
  • Autor: AlanaSalvadorSantos
  • Perguntado 5 anos atrás

Expressão "descoberta do brasil", qual sua opinião crítica sobre isso?​

Respostas

respondido por: gabysash
0

O Brasil não foi descoberto pelos europeus, mas pelos que antes já estavam aqui, que, no caso, são os indígenas. Logo, o Brasil foi invadido e colonizado, não descoberto.

Perguntas similares