Respostas
respondido por:
0
Resposta:
Os EUA foram colonizados pelos Ingleses até que os colonos adquiriram um processo de independência pioneiro no continente. Durante o século XIX os EUA se transformou em uma nação com muita potencia economia mundial, sua historia ficou muito marcada por guerras e por movimentos sociais como por exemplo, o movimento social de Martin Luther King Jr.
Explicação:
Espero ter ajudado, boa sorte!
Perguntas similares
3 anos atrás
3 anos atrás
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás