Respostas
respondido por:
20
Sim, é correto afirmar que o Brasil é um país predominantemente tropical porque se localiza na chamada zona térmica tropical. A maior parte do Brasil se encontra localizada entre os trópicos de Câncer e Capricórnio. Essa região que recebe luz solar de forma vertical é chamada de zona térmica tropical ou intertropical.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás