• Matéria: Geografia
  • Autor: angelinaliana
  • Perguntado 9 anos atrás

o que significa dizer que a Terra é um planeta vivo?

Respostas

respondido por: leticiaemeli
11
Na minha opinião significa que no planeta terra há vida humana... Seres Vivos, pois em outros planetas não se sabe se há vida. Espero ter ajudado ;)
respondido por: guilherme0877
10
Pois no planeta Terra a vida inteligente conseguiu se desenvolver, e por enquanto é o único planeta que possui vida inteligente que temos conhecimento...
Perguntas similares