• Matéria: História
  • Autor: carlarayssabomoufo4i
  • Perguntado 7 anos atrás

o que aconteceu com os indios quando os colonizadores chegaram ao brasil

Respostas

respondido por: AliceViana526
4

Podemos afirmar que os indios mudaram parte de sua cultura antepassada em decorrencia da presença de novas culturas no territorio brasileiro


respondido por: pviana79
1

com a chegada dos exploradores portugueses, os índios inicialmente trocaram objetos com os "visitantes", depois ao perceber que diversas tribos eram inimigas umas das outras, muitas também eram canibais, os portugueses se aliaram com algumas dessas tribos, ajudando a derrotar os inimigos, que após vencidos passaram a ser escravizados, muitos adoeceram em decorrência de doenças transmitidas pelo europeu, como varíola, sarampo, sífilis, para tomar posse de territórios diversos índios  foram dizimados, principalmente as tribos que viviam no litoral brasileiro.

com a extração do pau brasil, a mão de obra indígena escrava era utilizada, por estes motivos a vida do índio se alterou drasticamente a partir do século XV.

Perguntas similares