Respostas
respondido por:
2
Resposta:
Foi somente no Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país. A educação e a saúde passaram a ser uma preocupação das elites e, neste contexto, os exercícios corporais se tornaram sinônimo de saúde física e mental.
respondido por:
2
A educação física veio aqui no Brasil, pela mão de Luís Pedreira do Couto Ferraz (1818-1886)
Perguntas similares
4 anos atrás
4 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás