Respostas
respondido por:
1
Resposta:
de forma geral, pode-se concluir que educação física vem se desenvolvendo no Brasil a partir de importantes mudanças políticas sociais e que atualmente é vista como um elemento inicial para a formação do cidadão brasileiro
Explicação:
:)
Perguntas similares
4 anos atrás
4 anos atrás
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás