Respostas
respondido por:
5
Resposta:
O termo denota a crença de que o Brasil escapou da discriminação racial vista em outros países, como os Estados Unidos. Pesquisadores notam que a maioria dos brasileiros não se veem como racistas, e alegadamente não prejudicam ou promovem pessoas baseadas na raça.
Explicação:
kellycristina201com3:
obrigado
Perguntas similares
4 anos atrás
4 anos atrás
4 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás