• Matéria: Sociologia
  • Autor: lucas4069
  • Perguntado 8 anos atrás

o que aconteceu no Brasil de 1930 a 1970

Respostas

respondido por: Eduardaa144
2
O período de 1930 até 1970 foi um período muito conturbado da política brasileira. O que se pode perceber é a constante presença das forças militares nacionais na política, ora apoiando golpes de estado, ora apoiando governos democráticos. Na economia, ocorreu uma intensa participação do Estado, que com o auxílio do capital estrangeiro e nacional provocou a industrialização do país.
Perguntas similares