Respostas
respondido por:
11
Leis são dizeres sociais que são impostas pelo governo afim de que todos os cidadãos as sigam. As leis são principalmente originadas a partir de alguma insatisfação do povo e regem e buscam a paz e harmônia dentro de uma sociedade civilizada. Ou seja, buscam a ordem! E no nosso caso o progresso, pois sem ordem não há progresso".
Perguntas similares
7 anos atrás
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás