• Matéria: Português
  • Autor: otavio8781676
  • Perguntado 4 anos atrás

com base nos seus conhecimentos explique o que foi o Romatimos no Brasil ​

Respostas

respondido por: danisilva325
0

Resposta:

O principal fato histórico que permeia o Romantismo no Brasil é a chegada da Família Real portuguesa, em 1808. Nesse período, o país deixou oficialmente de ser uma colônia de exploração e passou a ser a sede do Reino Unido de Portugal, Brasil e Algarves. Com isso, uma série de modernizações começou a ocorrer no país.

Explicação:

Perguntas similares