• Matéria: Ed. Física
  • Autor: daviQlun
  • Perguntado 3 anos atrás

o que é Educação Física no Brasil?

Respostas

respondido por: samiradasilva5789
3
*RESPOSTA*:

No Brasil, a educação física é uma disciplina disposta a influenciar a prática de atividades físicas.

.

.

*EXPLICAÇÃO*:

Nas escolas, existem as aulas teóricas e práticas dessa matéria. Nas aulas teóricas, normalmente se estuda a origem, como chegou ao Brasil, as regras, e como funciona cada esporte em específico(Esportes mais famosos como Futebol, basquete, vôlei, etc). Nas aulas práticas, como ja diz o nome, é de costume praticar esses esportes.

A educação física é de suma importância por ser uma influência a uma vida mais saudável, aprendendo também em algumas aulas sobre a importância de uma alimentação saudável e como o exercício físico faz bem para um ótimo funcionamento do corpo humano.

Perguntas similares