Respostas
respondido por:
5
Resposta:Os EUA foram o primeiro país a reconhecer a independência do Brasil
Explicação:
Perguntas similares
5 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás