• Matéria: História
  • Autor: nicollebatalha27
  • Perguntado 5 anos atrás

o que aconteceu no Brasil com o fim da ditadura ​

Respostas

respondido por: willpedro2008
1

Tem outra pessoa aí escrevendo, só esperar um pouco

respondido por: fernando5693
1

Resposta:

De caráter autoritário e nacionalista, teve início com o golpe militar que derrubou o governo de João Goulart, o então presidente democraticamente eleito. O regime acabou quando José Sarney assumiu a presidência, o que deu início ao período conhecido como Nova República (ou Sexta República).


nicollebatalha27: obrigado
fernando5693: de nada
Perguntas similares