• Matéria: Filosofia
  • Autor: ritapvito
  • Perguntado 5 anos atrás

importancia do catolicismo no brasil

Respostas

respondido por: cavaldavid
1

Resposta:

O catolicismo tem sido a principal religião do Brasil desde o século XVI. Ela foi introduzida por missionários que acompanharam os exploradores e colonizadores portugueses nas terras do país recém-descoberto. O Brasil é considerado o maior país do mundo em número de católicos nominais, sua hegemonia deve ser relativizada devido ao grande sincretismo religioso existente no país.

Explicação:

fonte:Wikipédia


cavaldavid: oi
cavaldavid: tudo bem?
cavaldavid: se minha resposta tiver sido útil você poderia colocar na opçao de melhor resposta?
respondido por: somoreira04
1
A Igreja Católica exerce grande influência nos aspectos político, social e cultural dos brasileiros. O Brasil é considerado o maior país do mundo em número de católicos nominais, sua hegemonia deve ser relativizada devido ao grande sincretismo religioso existente no país.
Perguntas similares