• Matéria: História
  • Autor: BruLouCavaBorre
  • Perguntado 9 anos atrás

Quando os colonizadores chegaram às terras que atualmente formam o Brasil,os indígenas,que conheciam bem o território,ensinaram a esses colonizadores como deveria ser o trabalho?

Respostas

respondido por: gabcristina
5
Não, os portugueses na realidade já chegaram "implantando" suas ordens e culturas
Perguntas similares