• Matéria: Geografia
  • Autor: DarckAster
  • Perguntado 9 anos atrás

o que significa dizer que os Estados Unidos é uma federação


Caeirlarissa: Kkk, essa é a pergunta n° 5)a da pág. 79 do livro jornadas.

Respostas

respondido por: andreiamoraes2
55
Uma federação e uma aliança  entre diversas entidades em prol a um fim estados unidos ,pais que instituiu o federalismo moderno

DarckAster: vc e prof
Perguntas similares