• Matéria: Português
  • Autor: silvinhasantos75
  • Perguntado 7 anos atrás

o que retrata o naturalismo brasileiro

Respostas

respondido por: rodrigosamuelmozdqa6
2

Naturalismo é um movimento artístico-cultural que atingiu às artes plásticas, literatura e teatro em meados do século XIX. O Naturalismo é considerado uma ramificação radical do Realismo, pois também tem o objetivo de retratar a realidade assim como ela é.

Perguntas similares