• Matéria: Geografia
  • Autor: matsumoto13
  • Perguntado 3 anos atrás

Quando os Estados Unidos passaram a influenciar a economia no Brasil?

Respostas

respondido por: eloizataques
2

Resposta:

A influência dos Estados Unidos sobre o Brasil não é recente,  começou a se consolidar durante o governo de Getúlio Vargas, com acordos feitos entre os dois países, e, principalmente, a partir dos anos 60.

Explicação:

A maioria dos países latino-americanos demonstra ter uma maior dependência do país norte-americano há décadas.    

Essa dependência está presente, de certa forma, desde a ascensão econômica dos Estados Unidos, mas começou a se consolidar durante o governo de Getúlio Vargas, com acordos feitos entre os dois países, e, principalmente, a partir dos anos 60, quando o Brasil apresentou de maneira clara tal influência. Enquanto alguns falam sobre uma aliança, outros mostram que tal relação é desigual e hierarquizada. Dois exemplos que mostram as interferências estadunidenses no Brasil foram no golpe militar de 1964 e no impeachment de Dilma Rousseff, em 2016. Não é uma moda ou uma obsessão temática: os EUA são importantes na determinação da situação do Brasil. Em parte por razões mais objetivas – pelo político e econômico – ou por interferência intencional e indevida daquele país na nossa dinâmica interna.


becagarcia007: obrigada muito obrigada:)
heloisadacosrasilval: de nada fofag
heloisadacosrasilval: :)
respondido por: heloisadacosrasilval
0

Resposta:

Explicação: essa dependência está presente, de certa forma, desde a ascensão econômica dos Estados Unidos, mas começou se consolidar durante o governo de Getúlio Vargas, com acordos feitos entre os dois países e, principalmente, a partir dos anos 60, quando o Brasil apresentou de maneira clara tal influência

Perguntas similares