• Matéria: Geografia
  • Autor: may431
  • Perguntado 8 anos atrás

oque significa dizer que o Brasil é uma federação ?

Respostas

respondido por: LaryssaCostaF
6
O Brasil , apesar de ser uma República também é uma Federação, ou seja, tem uma autonomia governativa.
Perguntas similares