• Matéria: Sociologia
  • Autor: marianassilva1
  • Perguntado 9 anos atrás

O que significa dizer que as Ciências Sociais se dedicam a desnaturalizar o mundo social

Respostas

respondido por: thaynapimenta
36
Pois as ciências sociais colocam em evidência fatos reais e concretos a respeito da sociedade, deixando de lado conceitos comuns.
Perguntas similares