• Matéria: Português
  • Autor: liviaduartemotta
  • Perguntado 5 anos atrás

O protestantismo já foi a religião oficial do Brasilcorigir

Respostas

respondido por: bii53
1

Resposta:

O protestantismo chegou ao Brasil no período colonial com as tentativas francesas e holandesas de se firmarem no país. Consolidou-se a partir da abertura dos portos, embora o catolicismo continuasse oficial durante boa parte do século XIX.

Explicação:

Espero ter ajudado ❤️

respondido por: emilymonteiro10
1

Resposta:

em alguns países principalmente no Brasil, o termo protestante pelo termo evangélico retirando a conotação polêmica da palavra e dando uma característica mais positiva e universal.

Perguntas similares