• Matéria: História
  • Autor: rs6592431
  • Perguntado 6 anos atrás

o que os franceses levavam o Brasil​

Respostas

respondido por: anacarla13347
0

Os franceses tinham como objetivo principal fundar uma colônia em território brasileiro para poder participar ativamente do lucrativo e novo mercado da exploração colonial.

respondido por: fabianykevillyn33
1

Resposta:

Os franceses tinham como objetivo principal fundar uma colônia em território brasileiro para poder participar ativamente do lucrativo e novo mercado da exploração colonial. - Franceses protestantes queriam também fundar uma colônia no Brasil para viverem longe da perseguição religiosa que sofriam na França.

Perguntas similares