• Matéria: História
  • Autor: lorena4157
  • Perguntado 4 anos atrás

Quais as mudanças que ocorreram no
Brasil no final do século XIX?​

Respostas

respondido por: pedrovvf55
4

Resposta:

Foi nesse período que se mudou a forma de governo, foi feita a Constituição, se iniciou a substituição do trabalho escravo pelo trabalho assalariado e as fazendas de café e outras lavouras brasileiras modernizaram-se. As cidades cresceram e nelas as primeiras indústrias se instalaram.

Perguntas similares