De acordo com texto escreva com suas palavras qual a importância do futebol de campo para o brasil? *
Respostas
respondido por:
1
O futebol seguiu sendo fundamental para a sociedade brasileira. Protagonista em mudanças políticas, econômicas, sociológicas e antropológicas. O que acontecia em campo e nas arquibancadas era influenciado pelos rumos do país, mas também ajudava a reger o caminho.
Perguntas similares
3 anos atrás
3 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás