• Matéria: História
  • Autor: alguemprecisando777
  • Perguntado 6 anos atrás

Os estados Unidos tornou-se independente de qual país ?


lwerner1: Do Reino da Grã-Bretanha através do Tratado de Paris, que pôs fim à Guerra da Independência dos Estados Unidos.

Respostas

respondido por: rainaranogueira14
4

Resposta:

Inglaterra

Perguntas similares