• Matéria: História
  • Autor: fabiowillian2015
  • Perguntado 7 anos atrás

O que significa antropocentrismo? O racionalismo perdeu seu lugar?

Respostas

respondido por: gmdornelles2
3

Resposta:

pesquisa no Google

Explicação:

Antropocentrismo, é a ideia de que a Terra é o centro do Universo e tudo gira em torno dela, resumindo, é a ideologia de uma criança mimada

Perguntas similares