• Matéria: História
  • Autor: aluno2713
  • Perguntado 5 anos atrás

Quais mudanças ocorreram no Brasil após a Primeira Guerra Mundial?​

Respostas

respondido por: belinhabarroscordeir
0

Resposta:

Ocorreram várias mudanças no mapa depois da Primeira Guerra Mundial...O império alemão, o grande derrotado do conflito, perdeu todos os territórios coloniais fora da Europa, além de ter que ser de territórios para França, Bélgica e Polônia.

Explicação:

espero ter ajudado :)


belinhabarroscordeir: além de ter que ceder**
Perguntas similares