Respostas
respondido por:
1
Olá,Vamos Lá
cultura francesa sempre esteve presente na história do Brasil, principalmente após a chegada da Missão Francesa em 1816. Mesmo não tendo sido a principal colonizadora do nosso país e não tendo exercido grande influência política ou economia sobre o Brasil, a França contribuiu para a renovação das artes e para as mudanças dos nossos hábitos culturais e sociais, ajudando na construção da identidade brasileira. A França não dominou a economia do Brasil como a Inglaterra ou Portugal, mas foi responsável pela primeira colonização cultural do país, influenciando o comportamento das elites, determinando modelos de vida social e referências intelectuais, desde a filosofia até a moda, da gastronomia à literatura.
ESPERO TER AJUDADO!
nynezinha28:
obrigado
Perguntas similares
4 anos atrás
4 anos atrás
4 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás