• Matéria: Geografia
  • Autor: niviasilvas64
  • Perguntado 5 anos atrás

como se formou a religiao no brasil​

Respostas

respondido por: izabelsfarias01
1

Resposta:

A principal religião do Brasil, desde o século XVI, tem sido o catolicismo romano. Ela foi introduzida por missionários jesuítas que acompanharam os exploradores e colonizadores portugueses nas terras do país recém-descoberto.

Explicação:

espero ter ajudado!!!

Perguntas similares