• Matéria: História
  • Autor: saahnovais4988
  • Perguntado 7 anos atrás

o que o brasil ganhou com a primeira guerra mundial

Respostas

respondido por: Vicenteejr
0

Resposta:

O principal legado da Primeira Guerra Mundial para o Brasil foi revelar nosso atraso político e econômico. O país perdeu oportunidades de usar o conflito, a começar pela decisão de escolha de lado

Perguntas similares