• Matéria: História
  • Autor: smillena074
  • Perguntado 4 anos atrás

o que significa dizer que o Brasil se tornou um Estado laico com a República ?​

Respostas

respondido por: profsimaopedro
0

Resposta:

Estado Laico é aquele que não se pauta por religião nenhuma para tomar decisões políticas.

Explicação:

Perguntas similares