Respostas
respondido por:
1
Resposta:
Esse termo indica a crença de que o Brasil de livrou da discriminação racial em outros países (como os Estados Unidos). Pesquisadores apontam que a maioria dos brasileiros não se considera racista e não faz mal ou promove pessoas com base na raça.
Explicação:
espero ter ajudado
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás