• Matéria: Sociologia
  • Autor: laizacaroline169
  • Perguntado 4 anos atrás

O Brasil foi considerado um país oficialmente católico até o final de qual século?

Respostas

respondido por: Larissa098Domenico
1

Resposta:

O Brasil sempre foi um país oficialmente Católico até o final do século XIX.

respondido por: Anônimo
0

Ao passar do século XlX, ,o interesse pelas formas tradicionais de religiosidade no país caiu. Um reflexo disso é o grande número de pessoas que se intitulam católicos não praticante

*Espero ter ajudado !!!!*

Perguntas similares