• Matéria: Sociologia
  • Autor: vlogyasmin97
  • Perguntado 7 anos atrás

Tudo sobre o Direito Social no Brasil

me ajudem por favor

Respostas

respondido por: gervaisegabriela1510
1

Direitos sociais são os direitos que visam garantir aos indivíduos o exercício e usufruto de direitos fundamentais em condições de igualdade, para que tenham uma vida digna por meio da proteção e garantias dadas pelo estado de direito.

Os direitos sociais estão definidos nos artigos 6º a 9º da Constituição Federal e por estarem na Constituição são entendidos como direitos dos cidadãos e como obrigação do Estado.

Quer dizer que o Estado, através dos seus governos e programas de políticas públicas, deve agir para garantir que todos os cidadãos tenham direito a:

- educação, formação e trabalho;

- saúde, previdência social e seguridade social;

- alimentação;

- moradia e transporte;

- acesso a lazer e cultura;

- segurança;

- proteção aos direitos da maternidade e da criança;

- assistência aos desamparados.

Espero ter ajudado!!

Perguntas similares