• Matéria: Sociologia
  • Autor: michellylfrocha
  • Perguntado 4 anos atrás

URGENTE!!
O trabalho sempre foi visto como algo positivo? Explique sua resposta​


aliceeabreu5: Acredito que não, pois existe vários tipos de trabalho,como por exemplo o trabalho escravo ou o trabalho não assalariado ( quando não se recebe dinheiro), nesse sentido, muitos não veem o trabalho como algo positivo.

Respostas

respondido por: gg39
1

Resposta:

sim por causa do trabalho a gentepode se sustentar para nos mantermos por que sem o trabalho a gente nao se sustentaria

Perguntas similares