• Matéria: História
  • Autor: brendasantos2002
  • Perguntado 7 anos atrás

O que é ou o que foi o nacionalismo no Brasil?​

Respostas

respondido por: ellencristina2393
3

Resposta:

Nacionalismo é uma ideologia surgida no século XIX quando se afirmavam os Estados-Nações na Europa. O termo é utilizado para descrever o sentimento e a atitude que os integrantes de uma nação têm quando forma a identidade nacional. O Nacionalismo surge após Napoleão conquistar grande parte da Europa.

Perguntas similares