Respostas
respondido por:
0
O Tratado de Paris finalizou as relações coloniais entre os territórios estadunidenses e a Inglaterra. Esta reconheceu a independência dos Estados Unidos das América.
Perguntas similares
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás