• Matéria: Geografia
  • Autor: nataesteves2018
  • Perguntado 7 anos atrás

Explique por que os Estados Unidos se tornaram um país desenvolvido

Respostas

respondido por: CHRLSEDUARDO
0

Muito por conta da forma como foram colonizados pelos ingleses.

No Brasil, o que predominou foi o Pacto Colonial, onde a colônia mantinha estritas relações de exploração para com a metrópole, onde esta última era a captora de todos os bens e produtos oriundos da colônia.

Nos EUA, o que vigorou foi a colonização de povoamento, onde a colônia mantinha certa independência sobre suas atividades econômicas, políticas e sobre a vida social.

Entre outras políticas mais históricas, eu hei de citar só o Homestead Act, que foi um conjunto de incentivos para que as pessoas fossem ocupar terras nos EUA e produzir nelas.

Tem também a questão das guerras mundiais, em que os EUA saíram ricos, vitoriosos e lucrando muito, o New Deal, entre outras diversas políticas econômicas bem sucedidas.

Perguntas similares