Respostas
respondido por:
0
Resposta:
Sim, é correto afirmar que o Brasil é um país predominantemente tropical porque se localiza na chamada zona térmica tropical. A maior parte do Brasil se encontra localizada entre os trópicos de Câncer e Capricórnio.
Bons estudos!
Perguntas similares
3 anos atrás
3 anos atrás
3 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás