• Matéria: Ed. Física
  • Autor: leidems1234
  • Perguntado 4 anos atrás

Como a educação física teve origem no Brasil????

Respostas

respondido por: Anônimo
1

Foi somente no Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país. A educação e a saúde passaram a ser uma preocupação das elites e, neste contexto, os exercícios corporais se tornaram sinônimo de saúde física e mental

respondido por: mica635green
2

Resposta:

 olha tudo bem

Explicação:

 Foi somente no Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país. A educação e a saúde passaram a ser uma preocupação das elites e, neste contexto, os exercícios corporais se tornaram sinônimo de saúde física e mental.

Perguntas similares