• Matéria: Ed. Física
  • Autor: taynaragoncalves47
  • Perguntado 5 anos atrás

Você considera que o Brasil é o país do futebol? por que explique sua resposta.​

Respostas

respondido por: brunajesus1107
0

Resposta:

Conheça a história do esporte no país campeão em títulos da Copa do Mundo. A resposta, direta, é: “Vai saber”. ... O Brasil é o país do futebol porque ganhou 5 Copas do Mundo

Perguntas similares