Respostas
respondido por:
1
Resposta:
O trabalho faz com que o indivíduo aprenda a fazer algo com um objetivo definido, desde a época do trabalho escolar no colégio, e com isso, o ser humano começa a conquistar seu próprio espaço, respeito e consideração dos demais. Quando a pessoa realiza um trabalho bem feito, também contribui para a sua auto-estima, satisfação pessoal e realização profissional.
bolinhasalete:
Poderia me ajudar com minhas perguntas de filosofia por favor
Perguntas similares
4 anos atrás
4 anos atrás
4 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás