• Matéria: História
  • Autor: pmerda74
  • Perguntado 3 anos atrás

Comente sobre a introdução do futebol no território brasileiro


melodessu: A história do futebol no Brasil começou em 1895, pelas mãos dos ingleses, assim como na maioria dos outros países. Os primeiros clubes começaram a se formar neste período. Assim como a fundação dos clubes, a prática também era restrita à elite branca.

Respostas

respondido por: fabianedarc
1

Explicação:

ainda o futebol caipira praticando por volta de 1877 no interior paulista porém a explicação mais aceita sobre a introdução do futebol no Brasil é a de Charles Miller que trouxe uma versão organizada do Sport para a capital paulista local de sua residência

Perguntas similares