• Matéria: História
  • Autor: tainaMendes11
  • Perguntado 8 anos atrás

Muitos filmes do cinema e da tv tratam como herois soldados que passam o filme inteiro matando e destruindo . Nos assistimos a esses filmes desde crianças . Sera que eles , sem que percebamos , nos acostumam a guerra? Sera que eles nos ensinam a aceitar a guerra e a violência , e ate nos levam a gostar delas ? Explique

Respostas

respondido por: manu131016
13
Os filmes não influenciam tanto como o mundo, se a pessoa ver o filme e depois vê uma reportagem dependendo da reportagem ela pode ou não ser influênciada mais não significa que acostumou com a situação
Perguntas similares