• Matéria: História
  • Autor: BeatrizTae
  • Perguntado 8 anos atrás

A palavra Antropocentrismo quer dizer?

Respostas

respondido por: josealyson
6
estudo do homem, suas características biológicas e sociais
respondido por: ayssinha1
4
Doutrina filosófica que coloca o ser humano como centro do mundo.
Perguntas similares