Defire a inperialismo explique o papel da alemanha
nele quando invadiu a polonia no momento incial da guerra
Respostas
Resposta:
definição de imperialismo.
O Imperialismo é o nome dado para o conjunto de políticas que teve como objetivo promover a expansão territorial, econômica e/ou cultural de um país sobre outros.
A Alemanha, derrotada na Primeira Guerra Mundial, havia perdido seus territórios ultramarinos, a Alsácia Lorena e parte da Prússia. As altas indenizações impostas pelos Aliados causaram o colapso da moeda e desemprego em massa, fatores que, explorados pelos nazistas, contribuíram para o fortalecimento de Hitler no poder (assumido em 1933).
As relações entre a Alemanha e a Polônia já eram tensas desde a República de Weimar. Nenhum governo do Reich nem partido alemão concordava com a nova delimitação da fronteira leste do país (com um corredor polonês, neutro, separando o país da Prússia Oriental), imposta no Tratado de Versalhes.
Ambicionando as matérias-primas da Romênia, do Cáucaso, da Sibéria e da Ucrânia, Hitler começou a expansão para o Leste. Embora as potências ocidentais temessem o perigo nazista, permitiram seu crescimento como forma de bloqueio ao avanço comunista soviético.