Respostas
respondido por:
7
Bom dia!
Assim como acontece em outros lugares, o Brasil se tornou uma terra de poucos. Isso tem muito que ver com os valores e preceitos capitalistas vigentes da época.
O que acontece na verdade, é que, pode mais quem tem mais poder, assim, a lei só tem efeito de punição ao mais fraco, as condições dignas de vida ao mais forte, o direito à dignidade e ao respeito também fica com aqueles que detém o poder, o que resumidamente, torna o país apenas para poucos.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás