• Matéria: Sociologia
  • Autor: meyre14
  • Perguntado 8 anos atrás

Qual o significado de dizer o Brasil é um país laico

Respostas

respondido por: lala20
4
o significado é que o Brasil não tem uma religião oficial.


meyre14: obg
Perguntas similares