Respostas
respondido por:
2
Com o fim do Sacro-Império Romano Germânico e o surgimento dos feudos, a Igreja Católica já era considerada a religião oficial em muitos territórios, encontrava-se em acenção. Por ser possuidora de terras, encontrou terreno fértil para seu crescimento enquanto Estado e controladora social.
Perguntas similares
6 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás