• Matéria: Artes
  • Autor: luiza020505
  • Perguntado 7 anos atrás

defina quais são as principais artes no brasil
alguém pode mim ajudar?​

Respostas

respondido por: MaxbotBR
1

Artes plásticas

Artes cênicas

e Música


luiza020505: obg vai mim ajudar muito
respondido por: thaymeira
1

Arte brasileira é o termo utilizado para designar toda e qualquer forma de expressão artística produzida no Brasil, desde a época pré-colonial até os dias de hoje. Dentro desta ampla definição, estão compreendidas as primeiras produções artísticas da pré-história brasileira e as diversas formas de manifestações culturais indígenas, bem como a arte do período colonial, de inspiração barroca, e os registros pictóricos de viajantes estrangeiros em terras brasileiras. Com a chegada da Missão Artística Francesa no século XIX, ensaia-se pela primeira vez a criação de uma escola nacional de arte, consolidada por meio do estabelecimento da Academia Imperial de Belas Artes, no Rio de Janeiro. Posteriormente, sob a influência do expressionismo, do cubismo e do surrealismo europeus, junto com uma valorização do primitivismo, o Brasil assistirá ao desenvolvimento do modernismo, que será progressivamente incorporado ao gosto da sociedade e da arte oficial, até que a assimilação das novas tendências surgidas no pós-guerra contribua para o florescimento da arte contemporânea brasileira.


luiza020505: Muito obg pela ajuda ❤
Perguntas similares