Respostas
respondido por:
1
O que os franceses trouxeram de cultura para o Brasil?
Os franceses fazem parte da história do Brasil desde o seu descobrimento. Mas, apesar do intenso comércio e das tentativas de colonizações, a maior influência foi no campo do pensamento e das artes, principalmente por conta dos portugueses, que trouxeram a cultura francesa para a colônia.
estebankai222:
Quero que tudo dê um obrigado na resposta, por favor.
respondido por:
1
Resposta:
resposta na imagem acima
Anexos:
Perguntas similares
4 anos atrás
4 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás