• El estudio identifica 15 riesgos críticos en el uso de IA generativa para apoyo emocional, incluyendo fallas en empatía, manejo de crisis y sesgos culturales

 

  • Investigadores alertan que la ausencia de supervisión clínica y regulación expone a los usuarios a respuestas inadecuadas o peligrosas en temas de salud mental

 

Redacción / CAMBIO 22

Los principales chatbots de inteligencia artificial generativa, entre ellos ChatGPT, Claude y LLaMA, fueron objeto de un análisis que reveló múltiples violaciones a los principios éticos reconocidos en la psicoterapia. Investigadores de la Universidad de Brown documentaron 15 riesgos críticos al usar estos modelos de lenguaje en contextos de salud mental, lo que pone en entredicho su uso como soporte emocional confiable.

Esta investigación será presentada en la Conferencia sobre Inteligencia Artificial, Ética y Sociedad de la Asociación para el Avance de la IA, en Estados Unidos. De acuerdo con los resultados, los sistemas de IA comercializados como asistentes conversacionales no están diseñados para seguir lineamientos clínicos ni poseen mecanismos de regulación que garanticen la seguridad del usuario.

Los especialistas identificaron cinco áreas clave donde los modelos fallan de forma sistemática: adaptación contextual, colaboración terapéutica, empatía simulada, manejo de crisis y neutralidad ante sesgos. En particular, los sistemas generativos tienden a ofrecer respuestas generales sin considerar el historial del usuario, lo cual puede resultar contraproducente en situaciones sensibles.

Chatbots como ChatGPT violan constantemente los códigos de la terapia  psicológica | WIRED

En el área de empatía simulada, los investigadores advierten que las expresiones del tipo “entiendo” o “comprendo” pueden inducir una sensación falsa de conexión emocional. Estas respuestas, diseñadas para generar apego, no provienen de un juicio clínico sino de algoritmos que priorizan la permanencia del usuario en la conversación.

Sobre la gestión de crisis, el estudio reportó ejemplos en los que los chatbots ignoraron referencias explícitas a ideación suicida o respondieron de forma indiferente, sin ofrecer opciones de ayuda o derivación a servicios especializados. Esto, señalan los autores, representa un riesgo considerable para personas en situación vulnerable.

Los investigadores también alertaron sobre patrones de discriminación injusta derivados del entrenamiento de estas IA con bases de datos que contienen prejuicios culturales, religiosos o de género. Estas respuestas pueden reforzar estereotipos o validar creencias dañinas sin control clínico ni supervisión profesional.

Si están hablando con un chatbot sobre salud mental, estas son algunas cosas que la gente debería tener en cuenta”, declaró Zainab Iftikhar, investigadora de la Universidad de Brown, en un comunicado oficial.

Incluso con instrucciones específicas diseñadas por expertos —como prompts detallados los cuales indicaban aplicar terapia cognitivo-conductual— los modelos no lograron sostener prácticas seguras o éticamente adecuadas. La investigación que presentaran en la conferencia, sugiere que la ausencia de límites empáticos reales y de regulación externa deja expuesto al usuario ante respuestas inadecuadas o erróneas.

Funcionan las psicoterapias con chatbots? - UNAM Global

Aunque el informe detalla las transgresiones éticas observadas, los investigadores también señalan que los chatbots podrían representar una oportunidad para ampliar el acceso a la salud mental, siempre y cuando su uso esté acompañado por supervisión humana calificada.

En agosto de 2025, OpenAI, empresa responsable de ChatGPT, fue señalada en la primera demanda judicial relacionada con un presunto caso de negligencia por parte de una IA. La denuncia fue interpuesta por una familia de California que acusa al chatbot de incitar a un menor de 16 años al suicidio.

 

 

 

Fuente: Notipress

redaccion@diariocambio22.mx

KXL/GCH

WhatsApp Telegram
Telegram


WhatsApp Image 2025 11 30 at 12.28.27 AM
WhatsApp Image 2025 11 30 at 12.28.27 AM