Respostas
respondido por:
0
Explicação:
Bem, o termo não deve ser mais usado pelo fato de o Brasil não ter sido descoberto. Essa frase é atribuída aos Portugueses que aqui chegaram em 1500. Porém, os indígenas já habitavam as terras brasileiras há muito tempo. O termo que mais se usa é a "colonização do Brasil", que essa sim, foi feita pelos colonizadores Portugueses.
Perguntas similares
4 anos atrás
4 anos atrás
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás