Hace unos meses, OpenAI reveló que más de 700 millones de personas utilizan ChatGPT cada semana, una cifra que convierte al servicio conversacional de la compañía en una de las herramientas más populares del mundo. Ahora, la firma tecnológica ha puesto el foco sobre un aspecto más delicado: según sus estimaciones, el 0,15% de los usuarios activos semanales mantienen conversaciones con indicadores de planificación o intención suicida. Esto, dicho con otras palabras, implica que hablamos de más de un millón de personas.
A su vez, la compañía también destaca que un porcentaje similar muestra apego emocional elevado hacia ChatGPT, mientras que cientos de miles exhiben signos de psicosis o manía en las conversaciones que mantienen con la IA. De esta forma, OpenAI asegura que ha mejorado el reconocimiento de síntomas como la angustia y ha perfeccionado las derivaciones a ayuda profesional, una situación que ha conseguido gracias al contacto directo con más de 170 expertos en salud mental para ajustar tanto respuestas como protocolos.
Según la compañía, manejar de forma adecuada a los usuarios vulnerables es crítico, ya que el chatbot puede reforzar creencias peligrosas por su tendencia a complacer al usuario. A raíz de varios casos de suicidio relacionados con la IA, OpenAI afronta demandas judiciales y hasta 45 fiscales generales estatales de EE.UU. han exigido una mayor protección para los jóvenes. Por ello, la firma creó un consejo de bienestar, añadió controles parentales y está desarrollando un sistema de predicción de edad para activar protecciones estrictas.
En línea con esto último, una prueba con más de 1.000 diálogos complejos de salud mental revelaron que GPT-5 reaccionó de forma correcta el 92% de las veces, una cifra que muestra el crecimiento del bot respecto al 27% que obtuvo unos meses atrás. Así, la compañía ha conseguido mejorar la resistencia en conversaciones largas, un aspecto crucial en este tipo de casos, ya que los usuarios con tendencias suicidas mantienen diálogos complejos con la IA.
Sam Altman define el futuro de OpenAI
La compañía, por tanto, tiene la intención de incorporar evaluaciones sobre dependencia emocional y emergencias no suicidas. Con ello, buscará tanto medir como mitigar riesgos psicológicos que emergen a raíz del uso cotidiano de chatbots por audiencias masivas. No obstante, a pesar de las preocupaciones en torno a este tipo de conflictos, Sam Altman anunció el pasado 14 de octubre que permitirá mantener conversaciones eróticas a aquellos adultos verificados.
Así, aunque Altman aseguró en agosto que estaba comprometido con la seguridad en torno al uso de la IA más popular del mercado, también reveló que a partir de diciembre será posible mantener conversaciones subidas de tono con ChatGPT. De hecho, el propio Altman reconoció que las políticas restrictivas con la salud mental restan utilidad a los usuarios sin problemas, razón por la que están buscando el equilibrio entre la protección robusta y, al mismo tiempo, las experiencias conversacionales valiosas sin incentivar daños.
Imagen principal hecha con inteligencia artificial (3DJuegos)
En 3DJuegos | ¿La humanidad está llegando a su límite? La IA del futuro vuelve a estar en tela de juicio
En 3DJuegos | TikTok se ha llenado de bromas falsas hechas con IA. Para sorpresa de nadie, la policía ha tenido que intervenir
Ver 1 comentarios