• Matéria: História
  • Autor: flivia635
  • Perguntado 6 anos atrás

O território dos Estados Unidos da América foi colonizado por qual país?

Respostas

respondido por: Anônimo
5

Resposta:

Os EUA foram colonizados pela Inglaterra.

Explicação:

espero ter ajudado boa sorte com isso ai.

Perguntas similares