• Matéria: Português
  • Autor: mathnii
  • Perguntado 6 anos atrás

o que significa a educação no brasil?

Respostas

respondido por: biabriner
1

Resposta:

 A educação no Brasil, segundo o que determina a Constituição Federal e a Lei de Diretrizes e Bases da Educação Nacional (LDB), é responsabilidade do Governo Federal, dos estados, do Distrito Federal e dos municípios, que devem gerir e organizar seus respectivos sistemas de ensino

Perguntas similares