• Matéria: Geografia
  • Autor: larimota08
  • Perguntado 3 anos atrás

O que é República no brasil

Respostas

respondido por: felipamagnusnicolett
0

Resposta:

Brasil república refere-se ao período da história do brasil em que o regime republicano foi instaurado, ou seja, desde a proclamação da república, que ocorreu com um golpe feito por marechal deodoro da fonseca em 15 de novembro de 1889.

Explicação:

espero ter ajudado

Perguntas similares