Respostas
respondido por:
1
Explicação: Se for na Segunda Guerra Mundial a relação entre Alemanha e EUA se definhou pelo problema que a Alemanha Nazista estava ocasionando na Europa, a Alemanha atacou grandes aliados dos EUA como França e Reino Unidos, países que eram de base para a economia norte-americana. Os EUA estavam ajudando o Reino Unido com suprimentos, e também já havia declarado guerra ao Império Japonês que era aliado da Alemanha, o que enfureceu a Alemanha e em 17 de dezembro de 1941 a Alemanha Nazista declarou formalmente Guerra aos Estados Unidos.
natan28072005:
no caso, não seria na segunda guerra, e sim no periodo "ENTRE GUERRAS"
Perguntas similares
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás