• Matéria: Geografia
  • Autor: regi72
  • Perguntado 8 anos atrás

Leia o texto a seguir depois faça o que se pede o Brasil é um país tropical essa afirmação aceita de maneira geral pela sociedade estão diretamente relacionado a característica naturais da imensa extensão do território brasileiro Você concorda com a afirmação de que o Brasil é um país tropical Justifique sua resposta

Respostas

respondido por: isarodrigues502
23
Sim, pois o Brasil está completamente em todo as regiões do brasil exeto a sul

Perguntas similares