• Matéria: Ed. Física
  • Autor: Anônimo
  • Perguntado 3 anos atrás

estou precisando ajuda novamente.
1 quando e como surgiu a educação física no Brasil​

Respostas

respondido por: marlonvalentim55
1

Resposta:

Foi somente no Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país. A educação e a saúde passaram a ser uma preocupação das elites e, neste contexto, os exercícios corporais se tornaram sinônimo de saúde física e mental.

Explicação:

;D

respondido por: LobaoRSL
1

Foi somente no Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país

Perguntas similares