Respostas
respondido por:
8
Resposta:
O termo denota a crença de que o Brasil escapou do racismo e da discriminação racial vista em outros países, mais especificamente, como nos Estados Unidos. Pesquisadores notam que a maioria dos brasileiros não se veem pelas lentes da discriminação racial, e não prejudicam ou promovem pessoas baseadas na raça.
Perguntas similares
5 anos atrás
5 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás