• Matéria: Saúde
  • Autor: danielnascimen89
  • Perguntado 2 anos atrás

O que a religião pensa da dst no Brasil

Respostas

respondido por: michelecarolinerabel
0

As religiões / igrejas mais modernas tem projetos de cuidados e apoio a pessoas com determinadas doenças, como a AIDS, herpes, sífilis e outras. Em especial, a AIDS / HIV.

As mais tradicionais ainda tem a cultura de condenação, onde julgam pessoas contaminadas como se a pessoa fosse hospedeiro por descuido, por vontade própria e até mesmo como condenados ao inferno por ter praticado "fornicação".

Também é comum os problemas relacionados ao sexo (como gravidez indesejada, na adolescência e a contaminação por DSTs) em famílias que não orientam os jovens, tendo como um dos motivos para a não orientação serem religiosos, seja por vergonha ou seja por acreditar que aquele jovem não ira praticar atos de cunho sexual (lembrando que a herpes é um exemplo de vírus que pode ser passado pelo beijo).

Por isso, independente da religião, é importante orientar sobre tudo que pode acarretar uma relação sexual, desde doenças a planejamento familiar.

Perguntas similares