• Matéria: História
  • Autor: alicecostta420
  • Perguntado 4 anos atrás

quais as mudanças que ocorreram no Brasil no final do século XIX​

Respostas

respondido por: micaellesantana07
3

Resposta:

Foi nesse período que se mudou a forma de governo, foi feita a Constituição, se iniciou a substituição do trabalho escravo pelo trabalho assalariado e as fazendas de café e outras lavouras brasileiras modernizaram-se. As cidades cresceram e nelas as primeiras indústrias se instalaram.

Explicação:

espero que ajude

Perguntas similares