• Matéria: Geografia
  • Autor: silvamercia833
  • Perguntado 3 anos atrás

É correto afirmar que o Brasil é um país predominantemente tropical? Explicar

Respostas

respondido por: tiagofreefire745
2

Resposta:

Sim!

Isso porque o território nacional está localizado em grande parcela diante da região entre os trópicos. Por isso, sabe-se que o mesmo é também intitulado um país "Intertropical"< haja vista que está entre os trópicos de câncer e capricórnio.

A única região nacional que não está localizada diante de tal aspecto compreende a região sul brasileira, com características evidentemente diferenciadas do restante.

Explicação:

marca como melhor resposta e me segu3

Perguntas similares