Respostas
respondido por:
0
Quando se diz "descoberta do Brasil", dá a entender que os portugueses e os demais colonizadores foram os primeiros a ter noção do território brasileiro. Em contrapartida, alguns historiadores e sociólogos debatem essa ideia, visto que índios já habitavam o Brasil. Portanto, soa meio contraditório.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás