• Matéria: Geografia
  • Autor: Annie8Souza
  • Perguntado 7 anos atrás

É correto afirmar que o Brasil é um país predominantemente tropical? explique.

Respostas

respondido por: AninhaLoka0868
1

Sim, pois o principal clima do Brasil é o verão (tropical) na maior parte do ano, e em seguida o inverno.



Espero ter ajudado.

=)

respondido por: Anônimo
0

Sim. Porque a maior parte do território brasileiro está na zona tropical da Terra.

Perguntas similares