• Matéria: Geografia
  • Autor: jocileide822
  • Perguntado 3 anos atrás

1 o que significa dizer que o Brasil é um país com profundas desigualdades sociais?

Respostas

respondido por: araujoemanuelle93
0

Resposta:

O Brasil é um país marcado por profundas desigualdades sociais, econômicas

e políticas, que influenciam o acesso à justiça, uma vez que poucas pessoas

conhecem seus direitos ou têm condições de reivindicá-los, os custos para se

interpor uma ação no Poder Judiciário são elevados, além do fato de que esta

instituição enfrenta problemas como os de demora e ineficiência na resolução de

conflitos, o que tem por consequência a descrença da população no Poder

Judiciário.

Perguntas similares