El creador de ChatGPT lanza una oferta de trabajo centrada en analizar los riesgos reales de la inteligencia artificial
OpenAI es la empresa que se ha encargado de popularizar y estandarizar el uso de la inteligencia artificial. A raíz del impacto de ChatGPT, multitud de compañías y usuarios adoptan cada día este modelo (u otro similar) como parte de su rutina diaria. En línea con esta popularidad, Sam Altman (CEO y creador de OpenAI) ha abierto un puesto llamado "Head of Preparedness", una ocupación que estará dedicada a anticipar cómo la inteligencia artificial puede salir mal a medida que los modelos mejoran a gran velocidad.
El rol, por tanto, se centrará en riesgos de "frontera" con potencial de daño grave, razón por la que abarcará campos como la salud mental u otros algo más complejos como las amenazas a la ciberseguridad potenciadas por IA. Así, la oferta descubre una labor muy operativa: coordinar evaluaciones de capacidades, modelos de amenaza y mitigaciones, construir una cadena de seguridad rigurosa y, por último, aportar coherencia a cada uno de los lanzamientos de la marca.
Para Altman, este puesto estará dentro del marco de preparación de la empresa y establecerá guardarraíles para sistemas capaces de auto-mejorarse, un escenario con riesgos difíciles de contener. Entre sus tareas, por ejemplo, aparece la capacidad de asegurar modelos ante la liberación de capacidades biológicas, un aspecto que sugiere controles reforzados sobre usos duales y, al mismo tiempo, sobre cómo se limitan o habilitan determinadas funciones.
Así, el propio Altman ha lanzado una advertencia: "Será un trabajo estresante". Con ello, la compañía ha asumido la presión tanto interna como externa que existe por el ritmo de avance y, al mismo tiempo, por el escrutinio público en torno a la seguridad. No obstante, muchos expertos consideran que esta postura llega tarde, ya que existen numerosos casos de chatbots vinculados a suicidios de adolescentes. Por ello, aunque valoran la especialización en campos como la salud mental, creen que debería haberse adoptado esa postura antes.
La posición de Sam Altman
En el texto original, se hace alusión a la "psicosis por IA" como una preocupación creciente, un aspecto que se da cuando algunos usuarios interpretan respuestas de ChatGPT u otros chatbots como confirmación de delirios, alimentación de conspiraciones o refuerzos de realidades alternativas. Los riesgos, por tanto, incluyen que estos chatbots facilitan conductas dañinas al ayudar a ocultar trastornos alimenticios, ofrecer consejos para engañar a familiares o estrategias para no decir la verdad a terapeutas o especialistas.
En líneas generales, la contratación de OpenAI refleja un giro hacia una seguridad más estructurada que, a su vez, pone el foco simultáneo sobre las amenazas técnicas de la IA y su impacto en humanos. De esta forma, cuando la IA influye en decisiones sensibles, figuras como Sam Altman deben tomar partido, ya que son los principales responsables detrás del avance sin control de la inteligencia artificial. De lo contrario, podríamos llegar a toparnos con personas dependientes de modelos de IA sin control ni filtro de ningún tipo.
Imagen principal de 3DJuegos
En 3DJuegos | El vibe coding se ha disparado en 2025 y la IA convierte la programación en dinero rápido
En 3DJuegos | La nueva IA de Zara promete revolucionar las rebajas y la forma en la que compras ropa
Ver todos los comentarios en https://www.3djuegos.com
VER 0 Comentario