• Matéria: História
  • Autor: EllenRochaLessa
  • Perguntado 9 anos atrás

Qual a importância da arte no Brasil???


roberto222:   Para os brasileiros,nao tenho a resposta,,mas o q é arte?á meu ver é um sentimento q tomou forma, é um espelho q reflete os sentimentos das pessoas q conseguem refletir sua imagem interior na obra esposta,,para os brasileiros eu gostaria q a arte fosse a fonte de inspiraçao para paz,a fonte de inspiraçao pra o respeito,fonte de inspiraçao para compreenção e principalmente eu desejo q a arte fosse vista por todos nós em cada atitude dos seres humanos, comprendida e melhor ainda respeitada indep

Respostas

respondido por: zangiroli12345678911
1
a arte no Brasil e importante para saber de nossa ciltura 

zangiroli12345678911: cultura *
Perguntas similares