Respostas
respondido por:
11
Oiiii.
Haiti era uma colônia da América do Norte.
Onde os escravos pegaram em armas para libertar o país da escravidão.
É uma guerra importante,pois influenciou nossos escravos na época do Brasil colônia ter a esperança de lutar pelos seus direitos.
Ok?
Olhe a melhor resposta
Bjjj
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás