Respostas
respondido por:
1
A Biologia é a ciência que estuda os seres vivos e as leis da vida. Aliás, este é o significado da palavra biologia (bio = vida; logia = estudo). Essa ciência tem como objetivo entender como a vida surgiu, como os seres vivos se mantem vivos, se reproduzem e se relacionam entre si. Além disso, ela estuda como a vida evoluiu na Terra.
Mas não é apenas como ciência que ela é importante. A biologia também tem um papel fundamental na formação dos cidadãos, já que ela nos fornece informações de como devemos cuidar da nossa saúde (nutrição, higiene, hábitos saudáveis, etc) e da saúde do nosso planeta (reciclagem, manutenção da fauna e da flora, etc).
Perguntas similares
6 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás