Respostas
respondido por:
2
Resposta:
A Igreja Católica exerce grande influência nos aspectos político, social e cultural dos brasileiros. O catolicismo tem sido a principal religião do Brasil desde o século XVI. Ela foi introduzida por missionários que acompanharam os exploradores e colonizadores portugueses nas terras do país recém-descoberto.
larabispo52:
Obrigado
Perguntas similares
4 anos atrás
4 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás