• Matéria: Geografia
  • Autor: Estudante12910
  • Perguntado 9 anos atrás

O que aconteceu com o Brasil após a chegada dos imigrantes?

Respostas

respondido por: andressadessas
41
Com a chegada dos imigrantes no Brasil ficou com uma força de trabalho mais qualificada, porque como a maioria dos imigrantes veio de países ricos e mais desenvolvidos industrialmente, ajudaram a formar industriária de base do pais, uma vez que os trabalhadores da indústrias eram os escravos, que não tinam muita escolaridade e nenhuma experiência com as maquinas.

Perguntas similares