• Matéria: Ed. Física
  • Autor: fabianasantoscris8
  • Perguntado 4 anos atrás

a educação física foi inserida na educação brasileira ao longo dos anos e uma começa no Brasil colônia que foi fundamental importância pois​

Respostas

respondido por: isaque0779
0

Resposta:

Na época, a elite acreditava que exercícios físicos eram uma atividade somente para escravos e que seus filhos deveriam se dedicar ao desenvolvimento intelectual. Foi somente no Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país.

Perguntas similares