• Matéria: História
  • Autor: batgrilbe
  • Perguntado 7 anos atrás

porque está errado falar que o Brasil foi "descoberto"?​

Respostas

respondido por: LudML
5

Pois ele foi invadido. Os portugueses vieram já sabendo que haviam terras novas aqui.

respondido por: StRiGnAdO
3

A questão é ambígua. Não é incorreto afirmar que o Brasil foi de fato descoberto pelos europeus na visão eurocêntrica, pois de fato o Brasil ainda era desconhecido dos europeus até sua chegada em nossas terras. O que é incorreto é afirmar que os europeus foram os primeiros a chegar aqui, pois quando chegaram os ameríndios já habitavam nosso continente

Perguntas similares