• Matéria: História
  • Autor: tefa234
  • Perguntado 8 anos atrás

O que significa antropocentrismo?

Respostas

respondido por: Netung
0
Antropocentrismo foi um pensamento que se iniciou por volta do século XV que ao contrário do teocentrismo que colocava Deus como centro das coisas, o homem passou a ser o centro.
respondido por: valemessias
3
Homem no centro de tudo.
Perguntas similares