Estados Unidos ha encontrado la forma de mitigar los problemas de seguridad que tiene en espacios públicos como escuelas o centros comerciales: el uso de sistemas de vigilancia impulsados por IA. Por desgracia, los problemas no han tardado en aparecer, ya que un estudiante de secundaria de Maryland fue esposado y registrado después de activar las alarmas de un sistema de seguridad. ¿El motivo? Llevar una bolsa de Doritos que confundieron con un arma de fuego.
La IA provoca altercados en Estados Unidos
Taki Allen, alumno afectado por la confusión, relató que sostenía una bolsa de papas con una mano extendida y un dedo por fuera, un gesto que la IA interpretó erróneamente como una pistola. Tras activar la alarma del sistema, el personal de seguridad ordenó al estudiante arrodillarse y poner las manos detrás de la espalda, momento en el que lo esposaron hasta aclarar la situación. Así, se ha convertido en la segunda detención por IA en Estados Unidos en menos de dos semanas, un patrón que demuestra que existe un problema.
Katie Smith, directora del centro, informó a los padres que la alerta había sido revisada y cancelada por el departamento de seguridad. De hecho, señaló que esto se produjo antes de que ella misma avisara a la policía, pero estas declaraciones generaron confusión: según otras fuentes, Smith no sabía que la alarma había sido anulada cuando contactó al oficial escolar y este, a su vez, a las autoridades locales.
Omnilert, la empresa responsable del sistema, expresó su disgusto con la situación y aseguró que está preocupada tanto por el estudiante como por la comunidad afectada. No obstante, a pesar del error, aseguraron que "el proceso funcionó como estaba previsto", una declaración que generó debate en torno a los límites y la fiabilidad de la IA en seguridad escolar. De hecho, el caso reavivó las críticas en torno al uso de la inteligencia artificial para vigilancia en espacios educativos.
Para muchos, estos lugares no pueden estar relacionados con falsas alarmas que generan consecuencias traumáticas. Por ello, diversos analistas cuestionan si los sistemas de detección de armas basados en IA están preparados para interpretar gestos o contextos cotidianos, ya que pueden dar lugar a errores que terminen en tragedia. Sea como fuere, esta historia recuerda que la supervisión humana es determinante de cara a mitigar el impacto de la inteligencia artificial.
Imagen principal hecha con inteligencia artificial (3DJuegos)
En 3DJuegos | Nokia puso fecha al final de los móviles, despidió a miles de personas y, tres años después, ha celebrado su primera alegría
En 3DJuegos | Si tu jefe te ha dicho que te despidió por culpa de la IA, los expertos aseguran que se trata de la excusa perfecta
Ver 0 comentarios