• Matéria: História
  • Autor: MarcoEmanuel1004
  • Perguntado 7 anos atrás

Por que o uso da expressão "descoberta do Brasil " vem senso cada vez mais contestado?

Respostas

respondido por: Atlantis
0

Quando se diz "descoberta do Brasil", dá a entender que os portugueses e os demais colonizadores foram os primeiros a ter noção do território brasileiro. Em contrapartida, alguns historiadores e sociólogos debatem essa ideia, visto que índios já habitavam o Brasil. Portanto, soa meio contraditório.

Perguntas similares