Respostas
respondido por:
1
O racismo no Brasil teve suas raizes lá no século XVI, quando a escravidão foi implantada nesse país.
Desde aquele tempo, o negro é visto como um ser que deve servir, que não tem os mesmos direitos que o branco.
Embora a Lei Áurea tenha sido declarada em maio de 1888, pela Princesa Isabel, o racismo, infelizmente, não acabou.
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás