Respostas
respondido por:
3
Não. O Brasil já era um país em 1500, os indígenas moravam aqui e essa era a terra deles, o que os portugueses fizeram foram invadir e matar/escravizar toda a comunidade indígena que aqui morava.
31981207514:
obrigado
respondido por:
2
Resposta:
não, os indios viviam em nossas terras desde muito antes da chegada dos portugueses em 1500. Portanto, não foi em 1500 e não foram os portugueses que "descobriram" o Brasil, já que existiam a anos indios por aqui.
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás