E correto afirmar que o brasil é um pais
predominantemente tropical? Explique
gente me ajudem e muito urgente agradeço desde já!
Respostas
respondido por:
1
Não. Ele é tropical e equatorial
respondido por:
0
As florestas tropicais são um dos biomas mais belos existentes no globo terrestre. No brasil e nos países que fazem, a fronteira com os estados da região Norte encontra-se a maior floresta tropical do mundo. MAS NÃO PORQUE SANTA CATARINA, RIO GRANDE DO SUL E TAL SÃO FRIOS
vivisilva166:
você nâo entendeu a pergunta quer que eu ha repita?
Perguntas similares
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás