Respostas
respondido por:
3
Segundo o dicionário: "é a ciência que estuda as relações dos seres vivos entre si ou com o meio orgânico ou inorgânico no qual vivem." Também pode ser "estudo das relações recíprocas entre o homem e seu meio moral, social, econômico."
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás