Respostas
respondido por:
3
Resposta:
O catolicismo tem sido a principal religião do Brasil desde o século XVI. Ela foi introduzida por missionários que acompanharam os exploradores e colonizadores portugueses nas terras do país recém-descoberto.
Explicação passo a passo:
melhor resposta por favor
Perguntas similares
3 anos atrás
3 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás