• Matéria: Artes
  • Autor: kauafontes1
  • Perguntado 8 anos atrás

oque falar sobre a naturalismo no brasil?

Respostas

respondido por: juliakellysg
1
 Naturalismo no Brasil,foi um movimento cultural relacionado as artes plásticas, literatura e teatro.Surgiu na França, na segunda metade do século XIX.Os escritores brasileiros abordaram a realidade social brasileira,destacando a vida nos cortiços, o preconceito, a diferenciação social.O principal representante do naturalismo na literatura brasileira foi Aluísio de Azevedo destacando sua clássica obra O cortiço 
Perguntas similares