• Matéria: História
  • Autor: campostaina602
  • Perguntado 3 anos atrás

o cristianismo era a região dos índios antes deles terem contato com o homem branco?

me ajudem por favor​

Respostas

respondido por: linevapabsda
1

Resposta:

Não. O cristianismo foi trazido para o Brasil pelos portugueses e imposto como a única e principal religião do país, embora os nativos tivessem outras religiões e crenças. Os colonizadores obrigaram os indígenas a seguir o cristianismo

Perguntas similares