Respostas
respondido por:
2
Resposta:
Tudo começou em 1863, quando duas associações de jogos de bola (futebol association e futebol tipo rugby) se separaram, porque os partidários do "rugby" não aceitavam um jogo em que era proibido segurar a bola com as mãos.
Explicação:
SE EU TIVER AJUDADO POEM COMO MELHOR RESPOSTA... E BONS ESTUDOS!!!!
❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤
respondido por:
0
Olá
Boa tarde
A história do futebol no Brasil começou em 1895, pelas mãos dos ingleses, assim como na maioria dos outros países. Os primeiros clubes começaram a se formar neste período. Assim como a fundação dos clubes, a prática também era restrita à elite branca. Diz-se que a primeira bola de futebol do país foi trazida em 1894 pelo paulista Charles William Miller. Os registros mais antigos sobre o Futebol praticado no Brasil, porém, datam de 1875, em Curitiba.[1] A aristocracia dominava as ligas de futebol, enquanto o esporte começava a ganhar as várzeas. As camadas mais pobres da população e até negros podiam apenas assistir. Somente na década de 1920, os negros passaram a ser aceitos ao passo que o futebol se massifica, especialmente com a profissionalização em 1933.
Alguns clubes, principalmente fora do eixo Rio de Janeiro e São Paulo, ainda resistiam à modernização e continuavam amadores. Mas com o passar do tempo, quase todos foram se acomodando à nova realidade. Diversos clubes tradicionais e consagrados abandonaram a elite do futebol, ou até mesmo o esporte por completo.
Durante os governos, principalmente de Vargas, foi feito um grande esforço para alavancar o futebol no país. A construção do Maracanã e a Copa do Mundo do Brasil (1950), por exemplo, foram na Era Vargas. A vitória no Mundial de 1958, com um time comandado pelos negros Didi e Pelé, pelos mestiços Vavá e Garrincha e pelo capitão Bellini, ratificou o futebol como principal elemento da identificação nacional, já que reúne pessoas de todas as cores, condições sociais, credos e diferentes regiões do país.
Espero ter ajudado
Bons estudos
Boa tarde
A história do futebol no Brasil começou em 1895, pelas mãos dos ingleses, assim como na maioria dos outros países. Os primeiros clubes começaram a se formar neste período. Assim como a fundação dos clubes, a prática também era restrita à elite branca. Diz-se que a primeira bola de futebol do país foi trazida em 1894 pelo paulista Charles William Miller. Os registros mais antigos sobre o Futebol praticado no Brasil, porém, datam de 1875, em Curitiba.[1] A aristocracia dominava as ligas de futebol, enquanto o esporte começava a ganhar as várzeas. As camadas mais pobres da população e até negros podiam apenas assistir. Somente na década de 1920, os negros passaram a ser aceitos ao passo que o futebol se massifica, especialmente com a profissionalização em 1933.
Alguns clubes, principalmente fora do eixo Rio de Janeiro e São Paulo, ainda resistiam à modernização e continuavam amadores. Mas com o passar do tempo, quase todos foram se acomodando à nova realidade. Diversos clubes tradicionais e consagrados abandonaram a elite do futebol, ou até mesmo o esporte por completo.
Durante os governos, principalmente de Vargas, foi feito um grande esforço para alavancar o futebol no país. A construção do Maracanã e a Copa do Mundo do Brasil (1950), por exemplo, foram na Era Vargas. A vitória no Mundial de 1958, com um time comandado pelos negros Didi e Pelé, pelos mestiços Vavá e Garrincha e pelo capitão Bellini, ratificou o futebol como principal elemento da identificação nacional, já que reúne pessoas de todas as cores, condições sociais, credos e diferentes regiões do país.
Espero ter ajudado
Bons estudos
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás