• Matéria: Geografia
  • Autor: boneco2008
  • Perguntado 6 anos atrás

dê o significado de da palavra geografia

Respostas

respondido por: juliafernandes95hba
0
o Ciência que descreve detalhadamente a superfície da Terra, estudando seus aspectos físicos, biológicos e as relações entre o meio natural e os grupos humanos. Obra que trata dessa ciência: livro de geografia. ... Geografia humana.
respondido por: isacomendes31
0

Resposta:

ciência que trata da descrição da Terra e do estudo dos fenômenos físicos, biológicos e humanos que nela ocorrem, suas causas e relações.

Explicação:

Perguntas similares