Respostas
respondido por:
2
A história do futebol no Brasil começou em 1895, pelas mãos dos ingleses, assim como na maioria dos outros países. Os primeiros clubes começaram a se formar neste período. Assim como a fundação dos clubes, a prática também era restrita à elitebranca. Diz-se que a primeira bola de futebol do paísfoi trazida em 1894 pelo paulista Charles William Miller. A aristocracia dominava as ligas de futebol, enquanto o esporte começava a ganhar as várzeas. As camadas mais pobres da população e até negrospodiam apenas assistir. Somente na década de 1920, os negros passaram a ser aceitos ao passo que o futebol se massifica, especialmente com a profissionalização em 1933.
respondido por:
0
Resposta:
ia colocar a mesma coisa que a Giovana
Explicação:
Perguntas similares
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás