o cristianismo era a região dos índios antes deles terem contato com o homem branco?
me ajudem por favor
Respostas
respondido por:
1
Resposta:
Não. O cristianismo foi trazido para o Brasil pelos portugueses e imposto como a única e principal religião do país, embora os nativos tivessem outras religiões e crenças. Os colonizadores obrigaram os indígenas a seguir o cristianismo
Perguntas similares
3 anos atrás
3 anos atrás
3 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás