• Matéria: Ed. Física
  • Autor: jsbrenda81
  • Perguntado 5 anos atrás

Quando é que no brasil a educação física começa a ganhar mais importância?

Respostas

respondido por: samyragomes361
1

Resposta:

Em 1930, com as reformas de Getúlio Vargas, a área ganha destaque nas políticas públicas com a criação do Ministério da Educação e Cultura (MEC). A Educação Física obrigatória em todos os níveis escolares foi uma das formas do governo promover hábitos higiênicos e de saúde entre a população

Perguntas similares