• Matéria: Ed. Física
  • Autor: salles2009luisa
  • Perguntado 4 anos atrás

Descreva um pouco a história do Futebol no Brasil e relacione com a questão racial?

Respostas

respondido por: isabella9280738
1

Resposta:

O futebol seguiu sendo fundamental para a sociedade brasileira. Protagonista em mudanças políticas, econômicas, sociológicas e antropológicas. O que acontecia em campo e nas arquibancadas era influenciado pelos rumos do país, mas também ajudava a reger o caminho.

Perguntas similares