La IA para analizar heces es una tendencia inesperada que ha protagonizado varias polémicas
La inteligencia artificial se ha convertido en el bastión de la seguridad para muchas compañías. Un ejemplo de ello puede ser la celebración de los Juegos Olímpicos de 2024 en París, ya que el evento deportivo más grande del mundo llenó la capital gala de cámaras de seguridad alimentadas con IA. Ahora, Kohler ha llegado al siguiente nivel al desarrollar Dekoda, una cámara con inteligencia artificial que se engancha dentro del inodoro para analizar tus heces.
Según reveló la compañía, se trataba de un dispositivo con cifrado de extremo a extremo como otras opciones de la talla de WhatsApp. Así, aquellos que paguen una suscripción mensual tendrán la posibilidad de tener información sobre sus heces para conocer cuestiones relacionadas con su salud. Sin embargo, un investigador descubrió que Dekoda no había sido del todo sincera: en realidad utilizaban cifrado HTTPS estándar, razón por la que la compañía puede acceder al contenido al descifrarse en sus servidores.
Al tratarse de información extremadamente sensible (fotos de tus deposiciones, frecuencia, posibles rasgos de sangre o patrones de hábitos) ligados a tu identidad e historiales de uso prolongados en el tiempo provocó una polémica tremenda en torno a la cámara con IA de Kohler. Así, aunque la política de privacidad permite utilizar estos datos de forma anónima para mejorar el producto, se utilizan para entrenar modelos de IA y se comparten con terceros bajo ciertas condiciones.
De esta forma, el problema no solo reside en que el marketing es engañoso, sino que una brecha de seguridad podría exponer imágenes y datos de salud íntimos almacenados en los servidores de la empresa al no tratarse de cifrado real de extremo a extremo. A la vista de lo sucedido, este caso ilustra un patrón preocupante: cada vez más dispositivos con cámaras y sensores "inteligentes" se meten en el hogar y capturan tanto datos como información que antes solo tenías tú o tu médico.
Uno de los mayores problemas de la IA
La combinación de inteligencia artificial con cámaras de consumo ha puesto nuevos límites sobre la lógica que rodea a la videovigilancia: no solo se registra lo que haces, también se interpreta tu información y se clasifica de forma automática. Al hacerlo, se generan perfiles de comportamiento, salud o, incluso, hipótesis sobre posibles enfermedades. Si lo normalizamos, daremos pie a que un algoritmo analice todos los aspectos relacionados con nuestro día a día.
Así, uno de los principales riesgos es que nuestra casa podría convertirse en un pequeño laboratorio de datos para empresas tecnológicas. Tras lo sucedido, muchos han aprovechado la ocasión para recordar que términos como "cifrado", "uso para entrenar modelos de IA" o "anonimización" deben ser estudiados con cautela. De hecho, hay que ensalzar el valor de la información que entregamos, ya que es muy probable que no esté a la altura en términos de equilibrio.
Imagen principal de 3DJuegos
En 3DJuegos | Para el jefe de Instagram, la "cultura ganadora" pasa por una jornada laboral que se implementó hace más de 50 años
En 3DJuegos | Haneke Faber, CEO de Logitech, analiza el fracaso del hardware de IA: "Son soluciones que buscan un problema"
Ver todos los comentarios en https://www.3djuegos.com
VER 0 Comentario