Respostas
respondido por:
2
O primeiro país a reconhecer a independência do Brasil foi os Estados Unidos da América.
Dpm18:
Ás razões que explicam porque os EUA foi o primeira país a reconhecer a independência do Brasil deve-se ao momento vivido pelos EUA naquela época. Com a libertação dos EUA da opressão inglesa, abria espaço para a intensificação da industrialização interna. Porém, era inviável os EUA competir com o mercado europeu com países com um grau maior de industrialização. Assim, restava para os EUA disputar os mercados dos recém-independentes países americanos. Espero ter ajudado
Perguntas similares
6 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás
9 anos atrás