Respostas
respondido por:
7
pois ambas fizeram parte da formação histórica do Brasil, sem contar que no período do Brasil colonia os dois foram explorados por portuguese e espanhóis.
Com passar do tempo os índios foram deixados um pouco de mão, por conta que os africanos geravam muito mais lucro para a metrópole. A igreja dizia que era porque haviam descobrido que o índio tinha alma, mas a real justificativa era os fins comercias
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás