• Matéria: Ed. Moral
  • Autor: michelesantos3
  • Perguntado 9 anos atrás

Qual a importancia do futebol?

Respostas

respondido por: PGpaulo
5
Bom, Não é a Importância do futebol em si e sim dos esportes. Pois ajudam na auto estima e a ser sociável( Não tem vergonha de fazer amigos ou coisas assim) Espero que tenha ajudado :)
respondido por: Amandabi
12
Especialmente no Brasil, o futebol  tem uma importância notável. Culturalmente e tradicionalmente é o esporte predileto de crianças e adultos, chegando, muitas vezes a ser chamado de “febre nacional”. Desde muito cedo as crianças começam a praticar o esporte apenas por diversão,e tambem para melhorar a saúde além de muitas pessoas têm levado a carreira a sério e investido no esporte. Os maiores jogadores de futebol do mundo são brasileiros, desde os mais antigos até os mais atuais. Espero ter Ajudado e sido a melhor resposta!!!!

Perguntas similares