Respostas
respondido por:
2
Resposta:
O termo denota a crença de que o Brasil escapou da discriminação racial vista em outros países, como os Estados Unidos. Pesquisadores notam que a maioria dos brasileiros não se veem como racistas, e alegadamente não prejudicam ou promovem pessoas baseadas na raça.
Explicação:
ESPERO TER AJUDADO!!!
BONS ESTUDOS!!!
SE PRECISAR ESTAREI AQUI OK!?
pamellaluisa41:
muito obrigada!
Perguntas similares
4 anos atrás
4 anos atrás
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás