Respostas
respondido por:
0
Resposta:
Os franceses fazem parte da história do Brasil desde o seu descobrimento. Mas, apesar do intenso comércio e das tentativas de colonizações, a maior influência foi no campo do pensamento e das artes, principalmente por conta dos portugueses, que trouxeram a cultura francesa para a colônia.
Explicação:
ACHO QUE É ISSO COLEGA,
Perguntas similares
3 anos atrás
3 anos atrás
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás