Los creadores de ChatGPT llevarán sus modelos a la nube clasificada de EE.UU. con tres prohibiciones
OpenAI firmó un acuerdo para llevar sus modelos a redes clasificadas del Pentágono, una zona en la que cada clic queda registrado y la IA trabaja con escolta. El propio Sam Altman (CEO de la compañía) confirmó el pacto en redes sociales y lo vendió como "una colaboración segura y productiva" con las fuerzas armadas del país norteamericano.
Así, el contrato incluye capas de protección, ya que no es solo un modelo, sino un paquete de reglas, supervisión humana y controles técnicos antes de tocar datos sensibles. De esta forma, OpenAI dice que mantiene el control total de su pila de seguridad, razón por la que evitará que un tercero desactive filtros o cambie límites por pura prisa operativa.
Justo aquí, surge la primera línea roja: la prohibición del uso de la IA para vigilancia masiva dentro de los límites de Estados Unidos. A raíz de esto, no vale convertirla en un aspirador de vidas a escala nacional. La segunda línea roja guarda relación con apuntar objetivos letales de forma autónoma, ya que la IA puede ayudar a analizar, pero no decidir a quién se dispara. Por último, la tercera aborda decisiones críticas automatizadas como puntuar ciudadanos o tomar decisiones graves sin responsables humanos claros.
La alianza entre OpenAI y EE.UU.
El despliegue se haría vía nube gubernamental clasificada, no en el clásico portátil de las películas perdido en una base. De esta forma, la idea es centralizar permisos, auditorías y registros, y la propia OpenAI ha afirmado que habrá personal con habilitación de seguridad en bucle que se centrará en revisar usos, incidencias y peticiones antes de ampliar capacidades.
En este escenario, si el Gobierno incumple el contrato, OpenAI se reserva el derecho de cortar el servicio, aunque ya han avisado que no lo esperan y solo lo han dejado escrito por si acaso. El Pentágono, por su parte, busca flexibilidad y ha firmado acuerdos similares con varios laboratorios, cada uno de ellos valorados en acuerdos que llegan hasta los 169 millones de euros. Al hacerlo, se asegura no depender de una única compañía o forma de trabajo.
Así, este movimiento llega tras la ruptura entre la administración de Trump y Anthropic, una situación señalada como "riesgo de cadena de suministro" que ha dejado varias amenazas de demanda en el aire. OpenAI, de hecho, criticó de forma pública esa etiqueta contra Anthropic y solicitó igualdad de condiciones para todos los laboratorios que trabajan con el Gobierno de Estados Unidos.
El futuro de la IA en Estados Unidos
El choque ético, por tanto, se ha convertido en el corazón del drama: cuando la Casa Blanca quería menos "peros", OpenAI intenta demostrar que se puede responder de forma afirmativa sin perder principios. Además, el acuerdo también refleja un giro cultural: la IA pasa de ser una herramienta de oficina a una parte importante de la infraestructura de defensa, un aspecto que implica un peso político gigantesco.
Para OpenAI, una de las protagonistas del acuerdo, el reto es doble: mientras busca la forma de cumplir con seguridad nacional, también tiene la intención de sostener su imagen pública en pleno debate sobre vigilancia y normas autónomas. En paralelo, sigue buscando financiación privada con rondas que podrían llegar a 93.000 millones de euros con una valoración potencial de más de 700.000 millones de euros.
De esta forma, la transparencia es parte del mensaje: OpenAI compartió lenguaje contractual y "líneas rojas" para demostrar que no está improvisando. Detrás de la cortina, la pregunta práctica está clara: ¿qué impacto tendrá en análisis de texto, planificación logística, ayuda en ciberdefensa o soporte a analistas? Aquí, el precedente importa: si esto funciona, otros gobiernos y contratistas copiarán el modelo IA con guardarraíles, dado que la alternativa es el caos regulatorio.
Imagen principal de 3DJuegos
En 3DJuegos | China deja fuera a EEUU de su última IA exitosa y demuestra que la corona ha cambiado de bando
En 3DJuegos | Europa aprieta con la normativa de la IA. El problema es que ni ellos se ponen de acuerdo
Ver todos los comentarios en https://www.3djuegos.com
VER 2 Comentarios