• Matéria: Geografia
  • Autor: carolinedantas61
  • Perguntado 7 anos atrás

O que acontece depois do descobrimento do Brasil?​

Respostas

respondido por: Dudunoob
1

Resposta:

Os portugueses começam a trazer escravos e escravizar os índios para explorar as riquezas nacionais e o resto do país já que eles chegaram pela Bahia.

respondido por: joaopauloj7
1

Resposta:

Após deixarem o local em direção à Índia, Cabral, na incerteza se a terra descoberta se tratava de um continente ou de uma grande ilha, alterou o nome para Ilha de Vera Cruz. ... A descoberta do Brasil ocorreu no período das grandes navegações, quando Portugal e Espanha exploravam o oceano em busca de novas terras.

Perguntas similares