Respostas
respondido por:
1
Resposta:
A principal religião do Brasil, desde o século XVI, tem sido o catolicismo romano. Ela foi introduzida por missionários jesuítas que acompanharam os exploradores e colonizadores portugueses nas terras do país recém-descoberto.
Explicação:
espero ter ajudado!!!
Perguntas similares
4 anos atrás
4 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás