Respostas
respondido por:
0
Resposta:
A principal religião do Brasil, desde o século XVI, tem sido o catolicismo romano. Ela foi introduzida por missionários jesuítas que acompanharam os exploradores e colonizadores portugueses nas terras do país recém-descoberto.
Espero ter ajudado.
Bons estudos ; )
respondido por:
0
Resposta:
Foi o Cristianismo.
Explicação:
Surgimento do Cristianismo, a formação do seu livro Sagrado, sua chegada ao Brasil e sua influência em nosso pais.
Perguntas similares
4 anos atrás
4 anos atrás
4 anos atrás
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás