• Matéria: Geografia
  • Autor: yasmimsilvades87
  • Perguntado 5 anos atrás

me ajuda ( o que significa dizer que o Brasil é um país com profundas desigualdades sociais)?​

Respostas

respondido por: dhaynasilva53
0

Resposta:

Significa que a sociedade tratas outras pessoas com desigualdade constantemente, mulheres, negros, deficientes etc.

Perguntas similares