• Matéria: Geografia
  • Autor: santanakamilly24
  • Perguntado 5 anos atrás

O que são estados do Brasil ?

Respostas

respondido por: gferreirasousa2016
1

Resposta:Os estados do Brasil são, segundo definição do Instituto Brasileiro de Geografia e Estatística, entidades autônomas que possuem seus próprios governos, bem como suas próprias constituições. Juntos, formam a República Federativa do Brasil. São também denominados unidades federativas.

O Brasil já passou por diversas regionalizações, as quais mudaram a configuração do território brasileiro ao longo dos anos. A atual regionalização está relacionada com a Constituição Federal de 1988, na qual alguns estados surgiram e outros territórios foram elevados à categoria de estado.

Perguntas similares