• Matéria: Ed. Física
  • Autor: ladissasantos
  • Perguntado 4 anos atrás

qual foi o ano que a educação física surgiu no Brasil?​

Respostas

respondido por: tudojaestaemuso
2

Resposta:

1808

Explicação:

Na época, a elite acreditava que exercícios físicos eram uma atividade somente para escravos e que seus filhos deveriam se dedicar ao desenvolvimento intelectual. Foi somente no Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país.

Perguntas similares