• Matéria: Geografia
  • Autor: allisonadriel22
  • Perguntado 5 anos atrás

porque podemos dizer que a alemanha e o pais do futbol ?

Respostas

respondido por: leticiamarianunes1
1

Porque o governo transformou o futebol  deixando o mais organizado e poderoso. Isso tem chamado a atenção de muitos profissionais, já que o futebol no país havia perdido a força. Desde dos começo dos anos 2000 e à Alemanha tem se destacado nos últimos campeonatos e copas mundiais.

Perguntas similares