• Matéria: História
  • Autor: tarsi20
  • Perguntado 9 anos atrás

futebol arte faz parte da cultura brasileira

Respostas

respondido por: gibott
3
Sim, o futebol é o esporte mais praticado no Brasil, já faz parte da nossa cultura, tanto que o Brasil é conhecido como "país do futebol"
respondido por: AlissonSA
2
Sim, pois no brasil, o futebol é sinonimo de alegria
e o futebol arte, cheio de dribles e firulas, é uma caracteristica que os brasileiros trazem para o mundo
Perguntas similares