• Matéria: Geografia
  • Autor: Joanasula
  • Perguntado 5 anos atrás

onde a geografia foi fundamental?​

Respostas

respondido por: engene
1

Resposta:

A trajetória da Geografia como ciência escolar teve início ainda no século XIX. Em 1837, a Geografia foi implantada como disciplina escolar obrigatória pela primeira vez no Brasil, fato que aconteceu no Colégio Pedro II (Rio de Janeiro).

Explicação:

Espero ter ajudado!

respondido por: nicollybarros11
1

A geografia foi fundamental em diversos aspectos a criação de mapas cartográficos, metereologia... e intensificou os estudos sobre o planeta, podendo descobrir, estudar e ajudar evitar catástrofes naturais.

Perguntas similares