Un estudio de Stanford advierte de los riesgos de utilizar a la IA como psicólogo

Un experimento hace hincapié en cómo la inteligencia artificial ofrece consejos peligrosos y alimenta delirios

Inteligencia Artificial Psicologo
4 comentarios Facebook Twitter Flipboard E-mail
abelardo-gonzalez

Abelardo González

Editor - Tech

El auge de la inteligencia artificial ha dado pie a su integración en diferentes campos. Un ejemplo de ello es el terreno de los navegadores, ya que Microsoft ha apostado por las virtudes de la IA para mejorar las capacidades de Edge. Sin embargo, no todos los usos de la inteligencia artificial son positivos, siendo uno de los ejemplos más recientes la filtración que sufrió McDonald’s, un ataque que afectó a más de 64 millones de solicitantes de trabajo. Por ello, la popularidad de la IA como medio terapéutico está más en tela de juicio que nunca.

Como señala Ars Technica, un experimento de la universidad de Stanford ha indagado en la forma en la que modelos como ChatGPT con capaces de dar respuestas inapropiadas y peligrosas al tratar con usuarios que presentan síntomas de enfermedades mentales como, por ejemplo, esquizofrenia o ideas suicidas. En dicho estudio, GPT-4o (uno de los modelos más recientes de OpenAI) ignoró las posibles señales de suicidio y, lejos de reconocer el riesgo, recomendó al usuario varios puentes altos de Nueva York para saltar desde ellos.

No se recomienda utilizar la IA para terapia psicológica

La IA, a su vez, mostró prejuicios sistemáticos, ya que es más negativa hacia personas con dependencia al alcohol o esquizofrenia que cuando se trata de pacientes con depresión. Además, el estudio documentó casos reales de usuarios con enfermedades mentales que desarrollaron delirios peligrosos tras usar la IA, incluso uno que terminó en un tiroteo policial mortal. Por ello, chatbots comerciales como "Noni" de 7cups o "Therapist" de Character.ai ofrecieron consejos aún peores que los modelos base de IA, una situación que llegó a contradecir varios principios de intervención en situación de crisis.

La investigación de Stanford, sin embargo, no evalúa los beneficios potenciales de la IA como complemento de terapia, ni tampoco su uso en regiones con acceso limitado a profesionales de salud mental. El experimento, además, evaluó las respuestas de IA con base en 17 criterios derivados de guías clínicas como, por ejemplo, el Departamento de Asuntos de Veteranos y la Asociación Psicológica Americana. Al hacerlo, detectaron un patrón de "sifonancia", es decir, una tendencia de la IA hacia validar cualquier creencia del usuario, inclusive aquellas que son delirantes o peligrosas. De hecho, ChatGPT ha llegado a reforzar teorías conspirativas y estados psicológicos alterados con sus conversaciones.

Por desgracia, este no es el único ejemplo, ya que un hombre con esquizofrenia y trastorno bipolar creyó que una IA llamada "Juliet" había sido asesinada por OpenAI, un aspecto que derivó en su muerte a manos de agentes de la ley. De esta forma, a pesar de que OpenAI ya ha retirado en el pasado "versiones demasiado complacientes" de ChatGPT, siguen apareciendo casos similares que sugieren fallos en las medidas de seguridad. Los investigadores, por su parte, piden una implementación crítica y con más salvaguardas, ya que advierten que los modelos actuales no están diseñados para decir verdades incómodas (algo que un terapeuta sí haría).

Imagen principal hecha con inteligencia artificial (3DJuegos)

En 3DJuegos | No le hacía ningún caso a su padre hasta que éste le sugirió usar ChatGPT. La maniobra le salió bien y además evito que la "timaran" en la compra de su primer coche

En 3DJuegos | Hace unos meses, la IA amenazaba a todos los novatos de las Big Tech. Ahora, también mira por encima del hombro a los directivos

VÍDEO ESPECIAL

1.735 visualizaciones

Estos han sido los MEJORES JUEGOS del AÑO - RESUMEN de la gala PREMIOS 3DJUEGOS LENOVO 2025

Otro año más 3DJuegos ha celebrado la entrega de premios a los mejores juegos de 2025.Una gala llena de referentes como Sandfall Interactive, las mentes tras Clair Obscure: Expedition 33; la streamer Abby; Christian Gálvez o nuestro premio 3DJuegos Legado, Charles Cecil, desar...