• Matéria: História
  • Autor: camilly112010
  • Perguntado 4 anos atrás

quem e quando foi introduzido o cristianismo no Brasil​

Respostas

respondido por: mhenrike1208
4

Resposta:

A principal religião do Brasil, desde o século XVI, tem sido o catolicismo romano. Ela foi introduzida por missionários jesuítas que acompanharam os exploradores e colonizadores portugueses nas terras do país recém-descoberto.

Explicação:

Espero ter ajudado !!

Perguntas similares