• Matéria: História
  • Autor: mariainess937
  • Perguntado 4 anos atrás

Qual o significado de teatro brasileiro​

Respostas

respondido por: lucasloukk
1

Resposta:

Explicação:

A palavra teatro significa uma determinada arte, bem como o local físico em que tal arte se apresenta. A implantação do teatro no Brasil ocorreu em razão do empenho dos jesuítas em catequizar os índios. Dois atores encenando uma peça de teatro.

respondido por: pereirageovanna900
1

o início da história do teatro no Brasil tem como referência as exibições teatrais idealizados por padres jesuitas durante o século XVI

Um nome de grande importância para a origem do teatro brasileiro foi o Padre José de Anchieta considerado o primeiro dramaturgo do país

Perguntas similares