Respostas
respondido por:
1
É uma crença geral entre os moradores dos "EUA" que diziam que os colonizadores das terras deveriam expandir seu território ao norte.
kamiliebr:
era uma crença comum entre os habitantes dos Estados Unidos que dizia que os colonizadores americanos deveriam se expandir pela América do Norte.
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás