• Matéria: Português
  • Autor: thomasedson765
  • Perguntado 5 anos atrás

Qual o sentido do título: Descobrindo a África no Brasil?

Respostas

respondido por: heypotterhead
1

Resposta:

São os brancos conhecendo os africanos q vieram viver no brasil, e TB a cultura africana etc

Perguntas similares