• Matéria: História
  • Autor: BatataDoce12337
  • Perguntado 5 anos atrás

Explique as principais transformações sociais ocorridas no brasil no início do século XX.

Respostas

respondido por: pedroluizxavier2003
1

Resposta:

No Brasil, as transformações no comércio se intensificam após a II Guerra Mundial, com a consolidação e expansão da industrialização de nosso território, principalmente pela indústria automobilística, eletroeletrônica e de bens de consumo não duráveis.

Perguntas similares