• Matéria: Sociologia
  • Autor: rianpacheco34
  • Perguntado 4 anos atrás

O que entende-se por direitos sociais? Qual a importância desses direitos para a sociedade?

Respostas

respondido por: marcelomalaquiasig
1

Resposta:

Os direitos sociais são os direitos fundamentais de cada cidadão como educação, saúde, alimentação, moradia e etc. São importantes pra qualidade de vida, proporcionar igualdade e uma vida digna.

Perguntas similares