Respostas
respondido por:
0
Inglaterra foi quem colonizou os EUA . ok
respondido por:
1
Os Estados Unidos da América foram colonizados pela Inglaterra, grande potência mundial na época.
Perguntas similares
7 anos atrás
7 anos atrás
7 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás