• Matéria: Ed. Física
  • Autor: TrezinTchuTchu
  • Perguntado 4 anos atrás

Presciso de uma pesquisar sobre a educação física no Brasil.

Respostas

respondido por: MiriamVene
0

Resposta:

A profissionalização da Educação Física aparece no Brasil República, com as escolas de Educação Física que tinham como objetivo principal a formação militar. A Educação Física obrigatória em todos os níveis escolares foi uma das formas do governo promover hábitos higiênicos e de saúde entre a população.

"Espero ter ajudado, se possível me segue e marca cm melhor resposta, bons estudos !!"

✔️✔️✔️

Anexos:
Perguntas similares