• Matéria: Português
  • Autor: kikikikokoko
  • Perguntado 8 anos atrás

Qual é a importância da vacinação no Brasil?

Respostas

respondido por: pedro9919
4
A vacinação no Brasil é importante pois diariamente entram vários imigrantes de outros países que muitas vezes trazem doenças da antiga região que eles moravam
Perguntas similares