• Matéria: História
  • Autor: GabbiePetri
  • Perguntado 9 anos atrás

qual a importância de outros países reconhecerem o Brasil como nação independente?

Respostas

respondido por: Mantesco
2
Bom... a importância e por que outros paises n podem tentar nos mandar pois nós caminhamos com a nossas próprias pernas


ESPERO QUE TENHA AJUDADO...ADICIONE COMO A MELHOR RESPOSTA AI AJUDA MUITO. OBRIGADO
Perguntas similares