• Matéria: História
  • Autor: alininhaprachedes17
  • Perguntado 6 anos atrás

oque foi nazimos na Alemanha​

Respostas

respondido por: BRN0077
2

Resposta:

O nazismo, também conhecido como Partido Nacional-Socialista dos Trabalhadores Alemães, surgiu na Alemanha logo após a Primeira Guerra Mundial e alcançou grande notoriedade nos quadros políticos da Alemanha. Assumiu o poder do país a partir de 1933, quando Adolf Hitler tornou-se chanceler da Alemanha.

Explicação:

Perguntas similares