Respostas
respondido por:
1
Resposta:
O termo denota a crença de que o Brasil escapou da discriminação racial vista em outros países, como os Estados Unidos. Pesquisadores notam que a maioria dos brasileiros não se veem como racistas, e alegadamente não prejudicam ou promovem pessoas baseadas na raça
Explicação:
Espero ter ajudado : ) !
Perguntas similares
3 anos atrás
3 anos atrás
3 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás