Respostas
respondido por:
8
Após a independência - em relação às potências europeias - os Estados Unidos e as demais ex-colônias estabeleceram relações diplomáticas e econômicas positivas.
Foi, em geral, os Estados Unidos a primeira nação estrangeira a reconhecer a independência das antigas colônias, tendo estabelecido relações comerciais antes de qualquer outra nação europeia, posição que era guiada pela Doutrina Truman, que era o posicionamento oficial da política externa americana no período.
Perguntas similares
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás