• Matéria: História
  • Autor: strassburgercarol61
  • Perguntado 4 anos atrás

O que significou o Brasil se tornar uma República?​

Respostas

respondido por: tatiakaren
0

Resposta:

resultado de um golpe militar que derrubou a monarquia brasileira, que se enfraqueceu a partir do momento em que esse regime perdeu o apoio das

Perguntas similares