• Matéria: História
  • Autor: fernanda170599
  • Perguntado 9 anos atrás

o que significa dizer que o brasil foi colonia portuguesa

Respostas

respondido por: anapbertho
93
Olá,

dizer que o Brasil foi colônia portuguesa é afirmar que por um certo tempo Portugal foi o "dono" do Brasil, estendendo a sua legislação e religião para cá, explorando economicamente o país através da extração de pedras preciosas (ouro e diamante, principalmente) e do cultivo de alguns alimentos.

Inicialmente, eles exploraram o pau- brasil (utilizado para extrair a pigmentação vermelha) e depois a cana-de-açúcar.

Bons estudos!
respondido por: makmorales
32

Dizer que o Brasil foi uma colônia portuguesa significa que o Reino de Portugal, ao descobrir o Brasil, decidiu mandar seus cidadãos (colonos) para criar cidades, explorar a terra e as riquezas brasileiras.

A partir de 1530 os portugueses começaram a construir edificações no Brasil, como fortificações, portos e explorar as riquezas, primeiramente a madeira. Isso ocorreu no litoral, pois eles ainda não conheciam muito bem o território.

Ao longo dos anos surgiram as primeiras cidades, de modo que o Nordeste foi a região que mais se desenvolveu durante a Colonização Portuguesa no Brasil, e os portugueses lucraram com a exploração de madeira e da cana-de-açúcar.

Para mais sobre a colonização do Brasil:

https://brainly.com.br/tarefa/20991206

Anexos:
Perguntas similares