• Matéria: Geografia
  • Autor: vanessa1997viap58ilc
  • Perguntado 7 anos atrás

No Brasil quando a geografia tornou-se disciplina escolar?​

Respostas

respondido por: geislana
1

Explicação:

nas escolas brasileiras, a geografia teve início no século XIX , inicialmente no Colégio Pedro II, na cidade do Rio de Janeiro, depois foi sendo incorporado ao currículo oficial das demais escolas do país

Perguntas similares