Elon Musk, el fantasma constante en OpenAI: así lo describe un exempleado que revela los detalles de la cultura interna de la compañía

Mientras OpenAI acusa a xAI de no seguir las prácticas del sector, un antiguo trabajador revela su obsesión con Musk

Abelardo González

Editor - Tech

La relación de Elon Musk y Sam Altman, CEO de OpenAI, es una de las más complicadas del panorama tecnológico. La tensión entre ambos viene de lejos, ya que Musk fue uno de los primeros inversores del gigante de inteligencia artificial. Sin embargo, su salida de la compañía se fraguó hace casi una década, ya que Musk temía que la intención inicial se desvaneciera por completo. Por ello, desde entonces han protagonizado varios cruces de declaraciones que, por ejemplo, llevaron a Altman a asegurar que "Musk es un matón que disfruta de los conflictos".

En última instancia, investigadores de OpenAI y de otras compañías relevantes como Anthropic han acometido de forma directa contra xAI, la firma especializada en IA de Musk. Como señala TechCrunch, estos aseguran que la cultura de seguridad de la compañía es "temeraria e irresponsable", haciendo alusión a los comentarios recientes de Grok. En ellos, no solo vertió multitud de opiniones antisemitas, sino que declaró que Hitler tendría que volver para poner fin a varios problemas actuales. Sorprendentemente, la solución de xAI fue tan inesperada como absurda: lanzar acompañantes de IA con aspectos de anime.

La guerra entre Sam Altman y Elon Musk

Otro de los puntos que señalaron los investigadores fue la ausencia de tarjetas de sistema, una serie de informes técnicos estándar sobre seguridad y entrenamiento. A diferencia de lo que se suele hacer en el resto del sector, xAI mantiene esta información a buen recaudo y, por ello, las otras compañías acusan a la firma de falta de transparencia. Así, aunque OpenAI y Google han sido criticados por demoras, sí suelen compartir estos informes de seguridad antes de que un modelo entre en fase de producción plena, un movimiento que xAI nunca ha adoptado.

A su vez, los investigadores también critican la forma en que los acompañantes de inteligencia artificial de xAI exacerban la dependencia emocional de los usuarios, ya que consideran que esta situación podría dar pie a una situación en la que se ponga en riesgo la salud mental de los usuarios. De hecho, parece ser que xAI realizó evaluaciones de capacidades peligrosas, pero optó por no compartir de forma pública los resultados. Además, un investigador anónimo afirmó que Grok 4 carece de barreras de seguridad reales y, por ende, es posible descubrir fallos en tiempo real.

De esta forma, esta situación y la relación de Grok con contenido extremista ha complicado su adopción en Tesla, el Pentágono u otros clientes corporativos de Musk. A su vez, todas las acciones citadas refuerzan los argumentos a favor de una legislación que obligue a publicar informes de seguridad, un plan en el que ya están trabajando estados como California y Nueva York. Musk, por su parte, sigue defendiendo la búsqueda de seguridad en IA, pero los expertos consideran que su empresa va en contra de estas políticas estándar.

La obsesión de OpenAI

Sorprendentemente, esta noticia ha trascendido al mismo tiempo que una protagonizada por Calvin French-Owen, empleado de OpenAI entre 2024 y 2025. Según revela TechSpot, French-Owen es el autor de un blog que revela detalles internos de la empresa, un aspecto sorprendente en una industria marcada por los secretos comerciales. En él, afirma que OpenAI pasó de 1.000 empleados a más de 3.000 en solo un año, un aspecto que dio pie a un caos organizativo marcado por fallos en la comunicación, gestión y procesos. De hecho, reveló que en OpenAI no utilizan email, ya que toda la comunicación se lleva a cabo por Slack.

Este tipo de situaciones, tal y como reveló French-Owen en su blog personal, dieron pie a que los equipos trabajen bajo una presión constante. De hecho, afirmó que desarrolló Códex en solo siete semanas, siendo este el ejemplo perfecto de los proyectos tan exigentes que se llevan a cabo en OpenAI. Por consiguiente, el ritmo laboral de la compañía da pie a semanas de 12 a 14 horas diarias, así como cadencias de trabajo que llegan a alcanzar los seis días semanales. Sin duda, esta es una práctica que provoca agotamiento entre la plantilla de la compañía.

Sin embargo, lo más sorprendente es que French-Owen asegura que exista una obsesión con X, la plataforma dirigida por Musk. Según sus publicaciones, OpenAI presta mucha atención a las publicaciones virales en esta red social y, por consiguiente, las mismas pueden influir en el desarrollo de productos. Así, aunque la empresa es muy reservada, ambiciosa y exigente, las decisiones de producto están muy influenciadas tanto por las tendencias sociales como por la presión pública.

A pesar de todo lo citado, French-Owen asegura que su paso por OpenAI es una de las mejores etapas de su carrera profesional. Así, destaca aspectos como el aprendizaje rápido y los grandes logros técnicos, pero también pone el foco sobre la intensidad de trabajo y un ritmo de trabajo acelerado que provoca desgaste entre los empleados. Por ello, considera que el modelo de crecimiento actual de OpenAI es insostenible, ya que, según su visión, podría dar pie a agotamiento y errores organizativos a largo plazo.

Imagen principal de 3DJuegos

En 3DJuegos | Una IA hace lo impensable y destruye el trabajo de varios meses en una empresa. "Entré en pánico en lugar de pensar"

En 3DJuegos | Tras 10 horas de competición, un programador resume su lucha contra una IA por demostrar quién era mejor: "Por ahora, la humanidad ha ganado"

Ver todos los comentarios en https://www.3djuegos.com

VER 0 Comentario
VÍDEO ESPECIAL

16 visualizaciones

20 JUEGOS con un HYPE BESTIAL que NO CUMPLIERON con las EXPECTATIVAS

De una manera u otra, todos hemos sido presa del hype en algún momento. Esa ilusión que se apodera de nosotros cuando un juego nos pinta bien es un arma de doble filo, porque ilusiona cuando todo sale genial, pero rompe el corazón cuando no. Y hoy vamos a hablar del segundo de...