Respostas
respondido por:
0
Resposta:
O termo denota a crença de que o Brasil escapou da discriminação racial vista em outros países, como os Estados Unidos. Pesquisadores notam que a maioria dos brasileiros não se veem como racistas, e alegadamente não prejudicam ou promovem pessoas baseadas na raça.
Explicação:
não sei se está certo blz
Perguntas similares
3 anos atrás
3 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás