• Matéria: Ed. Física
  • Autor: IsabelPerreira
  • Perguntado 8 anos atrás

porque o Brasil é considerado o país do futebol?

Respostas

respondido por: MatheusAparecido1
9
Por que, o Brasil tem mais títulos e o esporte mais reconhecido em todo país, assim, sendo muito patrocinado por muitas pessoas com muita influência e admiração.

Abraço!

IsabelPerreira: um abraço pra vc tbm❤
Perguntas similares