Respostas
respondido por:
2
Resposta:
O futebol seguiu sendo fundamental para a sociedade brasileira. Protagonista em mudanças políticas, econômicas, sociológicas e antropológicas. O que acontecia em campo e nas arquibancadas era influenciado pelos rumos do país, mas também ajudava a reger o caminho.
Leticiastolfi:
Obg ❤️
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás