Respostas
respondido por:
0
Foi i tratado de Versalhes que foi um acordo feito pelos países Europeus pois fim a primeira guerra mundial, e nele dizia que a Alemanha tinha que arcar com todas consequências da guerra assim pagando uma indenização as outras nações que sofreram com a guerra, ceder suas colonias e dar uma parte de seu território.
ewerthon980:
Foi o*
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás