Respostas
respondido por:
1
A violência do brasil aumentou muito nos anos para cá.. acho que no brasil e lugar nenhum deveria ter violência, a maioria são os negros, e entres outros..
Perguntas similares
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás