Respostas
respondido por:
4
Resposta:
Os Estados Unidos foram o primeiro país a reconhecer a Independência do Brasil,
em 1824.
Explicação:
espero que tenho ajudado
ramosarielly9:
Os Estados Unidos
Perguntas similares
4 anos atrás
4 anos atrás
4 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás