• Matéria: Geografia
  • Autor: maahlimaahrosaah
  • Perguntado 8 anos atrás

o que significa dizer que os estados unidos são uma federação?

Respostas

respondido por: PrettyL
12
Uma federação e uma aliança entre diversas entidades em prol a um fim estados unidos ,pais que instituiu o federalismo moderno
Perguntas similares