• Matéria: História
  • Autor: franci97
  • Perguntado 7 anos atrás

No século XIX, o que mudou na política dos países que detinham impérios coloniais?

Respostas

respondido por: saramachado95
6
A Espanha conquistou inúmeros territórios, e os mais importantes foram na América, que conseguiu dominar 60% aproximadamente do território. E com isso, se tornou um Império muito rico. As principais colônias da Espanha foram, México, Argentina e Chile. 

Portugal também, que conquistou inúmeros territórios, e os principais se encontraram espalhados em vários continentes do planeta, como África, Ásia e América. Mas o principal de todos, foi o Brasil, que fica na América. Com a descoberta do Brasil, eles puderam pagar todas as suas dívidas que tinham com a Espanha e com o Reino Unido, através das matérias-primas que eles encontravam aqui. 
Perguntas similares