Respostas
respondido por:
84
O fato do Brasil ser chamado de pais tropical não tem aver com seu clima e sim porque grande parte do país se encontra entre os tópicos de câncer e de capricórnio.
Perguntas similares
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás