a educação física foi inserida na educação brasileira ao longo dos anos e uma começa no Brasil colônia que foi fundamental importância pois
Respostas
respondido por:
0
Resposta:
Na época, a elite acreditava que exercícios físicos eram uma atividade somente para escravos e que seus filhos deveriam se dedicar ao desenvolvimento intelectual. Foi somente no Brasil Império, em 1808 com a vinda da Corte Portuguesa, que se firmaram os primeiros tratados sobre a Educação Física no país.
Perguntas similares
4 anos atrás
4 anos atrás
4 anos atrás
6 anos atrás
6 anos atrás
6 anos atrás