Respostas
respondido por:
2
O ensino da geografia tem o objetivo dr nos tornar cidadãos mais conscientes e politizados,criar uma visão real do mundo( tanto geologicamente como socialmente )..
espero ter ajudado !
espero ter ajudado !
Perguntas similares
7 anos atrás
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás