• Matéria: Geografia
  • Autor: EuamoBTS
  • Perguntado 8 anos atrás

É correto afirmar que o Brasil e um país predominante tropical?Por que ?

Respostas

respondido por: Anônimo
27
Sim, podemos afirmar que o Brasil é um país tropical porque a maior parte do seu território se localiza entre a Linha do Equador e o Trópico de Capricórnio.
respondido por: adrianyandrade1978
3
sim pela quantidade q ainda restam de arvore e frutos no brasil
espero ter ajudado
Perguntas similares