Respostas
respondido por:
4
Minha opinião:
O futebol sempre foi considerado para homens (no qual não se vê/não é comum mulher praticar esse esporte), então é importante porque trás igualdade e demostra menos machismo na sociedade!
O futebol sempre foi considerado para homens (no qual não se vê/não é comum mulher praticar esse esporte), então é importante porque trás igualdade e demostra menos machismo na sociedade!
respondido por:
3
O futebol sempre foi dominado pelos homens ( um ato de maxismo) e a importancia e para mostra que tanto um homem como uma mulher pode jogar futebol um sinal de igualdade e que o mundo evoluiu mas mas precisa evoluir cada vez mais...
Perguntas similares
6 anos atrás
6 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás