• Matéria: Geografia
  • Autor: Majorrosa6666
  • Perguntado 8 anos atrás

é correto afirmar que o brasil é um país predominante tropical? preciso que me salvem nisso :)

Respostas

respondido por: explicarum
0
Sim, pode ser considerado um país tropical, simplesmente por se encontrar dentro dos trópicos de Câncer e Capricórnio. Suas diversidades regionais possui vários fatores climáticos como a latitude de certos estados, a influência das massas de ar, a concentração de vegetação, a maritimidade e assim por diante.
Perguntas similares