Respostas
respondido por:
2
Resposta: A pintura aparece no Brasil ainda na época do seu descobrimento. Era a maneira encontrada pelos colonizadores europeus de registrarem a nova terra, com imagens da natureza e dos índios. Os próprios índios já se utilizavam dessa arte para pintar os seus corpos, as paredes e objetos. Apesar de já se expressarem através da arte, o que predominou no país foi a cultura europeia, trazida pelos portugueses.
Explicação:
Perguntas similares
3 anos atrás
3 anos atrás
3 anos atrás
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás