• Matéria: História
  • Autor: bs3078439
  • Perguntado 8 anos atrás

o'que aconteceu no brasil a partir de 1870 como sendo transformaçoes politicas importantes ?

Respostas

respondido por: Anônimo
2
sai o imperialismo e entra a republica; tais acontecimentos como descobrimento do brasil, independência brasileira, etc 
(espero ter ajudado <3)

Anônimo: resposta bem breve..
Perguntas similares