• Matéria: Artes
  • Autor: gabrielly877
  • Perguntado 7 anos atrás

oque voce pode dizer sobre o início do teatro no brasil?

Respostas

respondido por: lawannyalves6
7

o teatro brasileiro Surgiu em Portugal e começou a fazer do brasil a sua colônia com intuito de catequizar os indios e trouxeram nova religião catolica mais uma cultura diferente que incluia literatura e o teatro. O teatro realmente nacional só veio a estabilizar em meados no seculo XIX

Perguntas similares