• Matéria: Geografia
  • Autor: karensergiokaua
  • Perguntado 6 anos atrás

os estados unidos foram colônia de qual país?​

Respostas

respondido por: davialmeidaestudante
0

Foi o Reino Unido  (UK)

respondido por: mfreitassilva085
0

Resposta:

Inglaterra

Explicação : Até então, apenas nativos habitavam no local, a partir dessa conexão com o continente europeu, os Estados Unidos passaram a ser colônia da Inglaterra. Inicialmente estes colonizaram a parte leste do país, o que corresponde ao litoral que é banhado pelo oceano Atlântico.

espero ter ajudado :)

Perguntas similares