• Matéria: Geografia
  • Autor: jhuanmigueltz47
  • Perguntado 6 anos atrás

no Brasil e obrigatório o ensino da geografia ​

Respostas

respondido por: pamelacanal88
0

Resposta:

Sim, a trajetória da Geografia como ciência escolar teve início ainda no século XIX. Em 1837, a Geografia foi implantada como disciplina escolar obrigatória pela primeira vez no Brasil, fato que aconteceu no Colégio Pedro II (Rio de Janeiro).

respondido por: kme23070110
0

Resposta:

sim.

Explicação:

Perguntas similares