• Matéria: Biologia
  • Autor: saraheliza16
  • Perguntado 5 anos atrás

O que significa dizer que a terra e o único planeta que abriga vida como a conhecemos?​

Respostas

respondido por: leticialuany
48
Significa dizer que o planeta Terra, de acordo com as nossas tecnologias, é o único planeta que apresenta vida como a conhecemos, por conta de apresentar elementos bióticos e abióticos que possibilitam sua existência.
Todavia, pesquisas na área espacial tem mostrado evidências de fatores abióticos em alguns planetas, como água, o que infere a possível existência de outras formas de vida em alguns outros planetas.

saraheliza16: obrigada
respondido por: mariaclarasilva5306
10

Resposta:

marca ela com melhor resposta

Perguntas similares