Respostas
respondido por:
1
Resposta:
O termo denota a crença de que o Brasil escapou da discriminação racial vista em outros países, como os Estados Unidos. Pesquisadores notam que a maioria dos brasileiros não se veem como racistas, e alegadamente não prejudicam ou promovem pessoas baseadas na raça.
Explicação:
Perguntas similares
3 anos atrás
3 anos atrás
3 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás