Respostas
respondido por:
1
Resposta:
O litoral brasileiro era constantemente frequentado pelos franceses desde o período da extração do pau- brasil. Os franceses, nessa época mantinham permanentes contatos com os povos indígenas e dessa relação articulavam acordos e aliança com esses povos. Quando os franceses invadiram o Brasil eles tinham como objetivo fundar uma colonia em território brasileiro para poder participar ativamente do lucrativo e novo mercado da exploração colonial.
ESPERO TER AJUDADO, BONS ESTUDOS :)
Perguntas similares
4 anos atrás
4 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás