• Matéria: História
  • Autor: LuanaMaia1234
  • Perguntado 9 anos atrás

qual foi o principal motivo que levou os franceses a se estabelecerem em terras do Brasil?

Respostas

respondido por: Helo20161
16
No século XVI, os portugueses e espanhóis reafirmavam o seu poder criando novas rotas marítimas e estabelecendo a colonização do continente americano. Com o tempo, essa supremacia passou a ser questionada por outras nações europeias que desejavam também lucrar com o processo de colonização. Afinal de contas, qual a autoridade que poderia dizer que só Portugal e Espanha poderiam realizar esse tipo de ação.. Espero ter ajudado
respondido por: Thaythaly
2

Resposta:estabelecer uma colônia na América q serviria de refúgio ao calvinistas perseguidos na Europa

Explicação:

Perguntas similares