• Matéria: História
  • Autor: rafaela0031
  • Perguntado 6 anos atrás

O que o Brasil ganhou com a chegada da família real ao nosso território?

Respostas

respondido por: mariaclarasanttos
1

Resposta:

A vinda da família Real para o Brasil contribuiu para a antecipação da tão esperada Independência do Brasil. Quando instalada no país, a família portuguesa implementou avanços percebidos até hoje na economia e cultura brasileira.

espero ter ajudado ♥️


rafaela0031: muiito obg ajudou demais :)♥️
mariaclarasanttos: por nada flor
respondido por: nathanysilva27
1

Resposta:

Com a chegada da Família Real, o Brasil passou a ser o centro do poder. Dessa maneira, ''ganhou mas importância'' Dom João criou faculdades de Medicina e de Direito, o Banco do Brasil, a Biblioteca Nacional, a Escola de Belas Artes, o Jardim Botânico e a Acaddmia Militar, dentre outros.

Explicação:

ESPERO TER AJUDADO!!

SE EU TE AJUDEI, NÃO ESQUEÇA DE AVALIAR! E PODERIA MARCAR COMO ''MELHOR'', DESDE JÁ, GRATA :)


rafaela0031: muito obg ajudou demais :)<3
nathanysilva27: Dndaa :)
nathanysilva27: Poderia marcar como ''MELHOR''? Pfvr!
Perguntas similares