Respostas
As relações entre Brasil e Estados Unidos englobam o conjunto de relações diplomáticas, econômicas, históricas e culturais estabelecidas entre o Brasil e os Estados Unidos. Estão entre as mais antigas do continente americano, sendo os Estados Unidos o primeiro país a reconhecer a independência brasileira. Atualmente, os Estados Unidos são o segundo maior parceiro comercial do Brasil.[1]
Além disso, os dois países compartilham a adesão de várias organizações internacionais, incluindo as Nações Unidas, a Organização Mundial do Comércio, a Organização dos Estados Americanos, o G8+5 e o G20. O Brasil é um dos países mais pró-Estados Unidos do mundo. De acordo com uma pesquisa de opinião global, 62% dos brasileiros viam os Estados Unidos de maneira favorável em 2010, índice que aumentou para 73% em 2013. No entanto, essas pesquisas foram realizadas antes de revelações de espionagem da Agência de Segurança Nacional para o público brasileiro.[2] Em outra pesquisa realizada no final de 2013, 61% dos estadunidenses viam favoravelmente o Brasil.
EUA se tornaram o poder hegemônico no hemisfério e as reações dos países latino-americanos com o crescimento de um sentimento antiamericana. Até a Primeira Guerra Mundial, os EUA não tinham doutrinas diplomáticas para a América Latina, o foco estava direcionado em conquista uma posição de destaque no cenário internacional. No entanto, no início do século XX, percebeu-se que para ocupar essa posição de destaque era necessário um ambiente estável, e para isso era necessário intervir, mesmo que diplomaticamente, nos países da região, principalmente no Caribe, local que ainda sofria forte influência de países como França e Inglaterra