• Matéria: Ed. Física
  • Autor: jamillydamazio7
  • Perguntado 5 anos atrás

em qual período a educação física No Brasil se tornou uma disciplina​

Respostas

respondido por: keeflenfloresapaza
3

Resposta:

A profissionalização da Educação Física aparece no Brasil República, com as escolas de Educação Física que tinham como objetivo principal a formação militar. Em 1930, com as reformas de Getúlio Vargas, a área ganha destaque nas políticas públicas com a criação do Ministério da Educação e Cultura (MEC)

espero ter ajudado

Explicação:

respondido por: dc6354827
2

Resposta: A importância da Educação Física na formação dos brasileiros se consolida somente em 1882, com o parecer de Rui Barbosa sobre a “Reforma do Ensino Primário, Secundário e Superior”, no qual relatava o valor do desenvolvimento físico aliado ao mental nos países mais desenvolvidos e sugeria a obrigatoriedade da prática em todas as escolas e para ambos os gêneros, incluindo a Educação Física

Explicação:

Perguntas similares