Respostas
respondido por:
2
Resposta:
os europeus dominaram parte da América e começaram a impor seus costumes sobre o local, afetando assim a parte cultural e biológica do continente.
rafaelazanone:
Obrigada!
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
8 anos atrás
8 anos atrás