• Matéria: Geografia
  • Autor: skarlet12
  • Perguntado 9 anos atrás

É correto afirmar que o Brasil é um país tropical explique

Respostas

respondido por: samuelvitor1611
23
sim é correto pelo fato dele estar por ele estar entre os trópicos de câncer e capricórnio.

wan12: pois ele vive sempre mudando de clima chuva calor frio etc gostei ta sua resposta
samuelvitor1611: valeu
wan12: tamo junto
respondido por: mariamadureira
5
Sim, pois o Brasil está na zona tropical do planeta.

Perguntas similares