Respostas
respondido por:
1
Não, podemos afirmar que o Brasil é um país tropical porque a maior parte do seu território se localiza entre a Linha do Equador e o Trópico de Capricórnio.
Perguntas similares
4 anos atrás
4 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás