• Matéria: Ed. Física
  • Autor: gabrielly5674
  • Perguntado 7 anos atrás

o que é a educação física no Brasil?​

Respostas

respondido por: morenasantoseugenia
0

Resposta:

a educação física hoje em todo Brasil é esportes

respondido por: babybaby1231
2

*RESPOSTA*:

No Brasil, a educação física é uma disciplina disposta a influenciar a prática de atividades físicas.

.

.

*EXPLICAÇÃO*:

Nas escolas, existem as aulas teóricas e práticas dessa matéria. Nas aulas teóricas, normalmente se estuda a origem, como chegou ao Brasil, as regras, e como funciona cada esporte em específico(Esportes mais famosos como Futebol, basquete, vôlei, etc). Nas aulas práticas, como ja diz o nome, é de costume praticar esses esportes.

A educação física é de suma importância por ser uma influência a uma vida mais saudável, aprendendo também em algumas aulas sobre a importância de uma alimentação saudável e como o exercício físico faz bem para um ótimo funcionamento do corpo humano.

--Eu fiz essa resposta e essa explicação baseada nos meus conhecimentos que eu tenho diariamente nas aulas de Educação Física, espero muito ter ajudado--

Perguntas similares