• Matéria: Geografia
  • Autor: gustavoribeiro5
  • Perguntado 7 anos atrás

Qual é a importância do trabalho no território brasileiro??

Respostas

respondido por: juuhsflove
1

Resposta:Ele é um dos instrumentos que dignifica a pessoa e a dá condição de vida digna. Constitui uma das formas de sustentação econômica dos cidadãos.A importância do trabalho deve coincidir com a justiça e o direito que o acompanham.Trabalhar significa cuidar da vida e possibilitar a elevação da autoestima do trabalhador e o progresso da vida humana.

Explicação:

Perguntas similares