• Matéria: Artes
  • Autor: mikaelyernesto2
  • Perguntado 4 anos atrás

quais são os principais países que fizeram parte da colonização do continente americano?

Respostas

respondido por: zeribeiro21
0

Resposta:

América foi descoberta pelos europeus, após esse acontecimento diversos países do velho continente se dirigiram para a nova terra. O continente americano foi colonizado principalmente por portugueses, ingleses, espanhóis, franceses e holandeses.

Explicação:

espero ter ajudado

Perguntas similares