• Matéria: Geografia
  • Autor: marebelieber66251
  • Perguntado 3 anos atrás

O que são os estados brasileiros

Respostas

respondido por: deoliveirasoaresmari
0

Resposta:

Os estados do Brasil são, segundo definição do Instituto Brasileiro de Geografia e Estatística, entidades autônomas que possuem seus próprios governos, bem como suas próprias constituições. Juntos, formam a República Federativa do Brasil. São também denominados unidades federativas.

O Brasil já passou por diversas regionalizações, as quais mudaram a configuração do território brasileiro ao longo dos anos. A atual regionalização está relacionada com a Constituição Federal de 1988, na qual alguns estados surgiram e outros territórios foram elevados à categoria de estado

Explicação:

peguei do google de nada

bons estudos!!

Perguntas similares