Respostas
respondido por:
2
BOM DIA
A discriminação no Brasil é algo que está impregnado desde que os nossos colonizadores se estabeleceram no território com práticas extremamente descriminantes como a escravização e a aculturação com os indígenas ali presentes respectivamente. De qualquer forma é notório um grande progresso nas últimas décadas para o fim da discriminação , podemos observar , muitos direitos conquistados pelas mulheres, o respeito conquistado por movimentos e minorias . E a maior representatividade dos negros na política .
BOA SORTE , BONS ESTUDOS
ESPERO TER AJUDADO
Perguntas similares
4 anos atrás
4 anos atrás
4 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás