Respostas
respondido por:
2
Os EUA foram colonizados por ingleses, espanhóis e franceses. A América foi descoberta em 1492 e ele chegou nas Ilhas Bahamas. A partir daí, passou a ser de conhecimento público na Europa que existia um novo continente a ser explorado. Então os europeus partiram para colonizar.
Anônimo:
zuera
Perguntas similares
6 anos atrás
6 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás