• Matéria: História
  • Autor: Mary231321
  • Perguntado 8 anos atrás

Esclareça o que significa dizer que o Brasil se tornou independente

Respostas

respondido por: Anônimo
11
se tornou idependente por não estar os europeus mandando no povo daqui mais isso não quer dizer que a a gente eh independente e sim aquele povo em que somos dependentes dos políticos corruptos

Mary231321: Por não estar o que ?
Anônimo: o europeus mandando no povo daqui,la nos ano de 1500...
Perguntas similares