• Matéria: Sociologia
  • Autor: costtaa20paxtjb
  • Perguntado 7 anos atrás

Em que século os direitos sociais foram conquistados ?

Respostas

respondido por: ellensato
2

Os Direitos Sociais são os direito que visam garantir condições básicas para os indivíduos terem uma vida digna e poderem se desenvolver, como educação, saúde, transporte, lazer... a maioria deles foi conquistada no século XX após diversos movimentos, protestos e lutas sociais.


Perguntas similares