• Matéria: Geografia
  • Autor: santtosanne828
  • Perguntado 3 anos atrás

o que o brasil fez a partir dos anos 60 ? Explique

Respostas

respondido por: odetearaujo0805
0

Resposta:

Os anos 60 no Brasil foram feitos de revoluções e deixaram muitas lições para a história. Foi nessa década que a ditadura militar foi instaurada, especificamente no ano de 1964. Foi uma década marcada pela repressão, censura e violência. Uma época que, no âmbito político, foi muito marcada por falta de democracia.

Explicação:

espero ter lhe ajudado

ass:Raissa Fernanda

Perguntas similares