Respostas
respondido por:
68
Resposta:
Nem sempre. Ainda nos tempos em que o Brasil era colônia, a religião oficial era o catolicismo, que tinha influência até nos aspectos políticos. Em uma certa época, começou a existir essa liberdade de crença, mas a religião católica continuava sendo a oficial do Império.
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás