Respostas
respondido por:
15
A História do futebol no Brasil começou em 1895, pelas mãos dos Ingleses, assim como na maioria dos outros países. Os primeiros clubes começaram a se formar neste período. Assim como a função dos clubes, a prática também era restrita à Elite branca. Diz-se que a primeira bola de futebol do país foi trazida em 1894 pelo Paulista Charles William milles. A aristocracia dominava as ligas de futebol, enquanto o esporte começava a ganha as Várzeas.
Espero ter ajudado!!!
Espero ter ajudado!!!
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás