• Matéria: Geografia
  • Autor: romeofeuilloy
  • Perguntado 5 anos atrás

o que os françeses modificaram na cultura brasileira.

Respostas

respondido por: estebankai222
1

O que os franceses trouxeram de cultura para o Brasil?

Os franceses fazem parte da história do Brasil desde o seu descobrimento. Mas, apesar do intenso comércio e das tentativas de colonizações, a maior influência foi no campo do pensamento e das artes, principalmente por conta dos portugueses, que trouxeram a cultura francesa para a colônia.


estebankai222: Quero que tudo dê um obrigado na resposta, por favor.
romeofeuilloy: ja fiz
respondido por: wedna66
1

Resposta:

resposta na imagem acima

Anexos:
Perguntas similares