Las antiguas bases morales de la compañía en contra del uso de la tecnología en armas han desaparecido de un día para otro
Uno de los aspectos más preocupantes de la inteligencia artificial es su uso nocivo para determinadas actividades. Un ejemplo de ello podría ser su relación con las armas nucleares, ya que algunos creen que una IA descontrolada podría acabar con la humanidad sin sentir remordimiento alguno. Por ello, las compañías han llegado a diferentes acuerdos que, en líneas generales, buscan controlar el impacto de la IA. Sin embargo, una de las decisiones más recientes de Google han ido en contra de dicha filosofía.
Como señala TechCrunch, Google eliminó su compromiso de no utilizar la IA para armas, una promesa que ya no aparece reflejada en su web. En el pasado, la compañía se comprometió a no desarrollar inteligencia artificial para armamento o vigilancia, pero los usuarios detectaron que una sección llamada "aplicaciones que no perseguiremos" desapareció sin dejar rastro. Así, Google ahora enfatiza en su blog que la IA debe "proteger a las personas, promover el crecimiento global y apoyar la seguridad nacional", razón por la que ya no hace hincapié en excluir su uso en el terreno armamentístico.
Referencia al derecho internacional
A pesar del cambio, la empresa dice que trabajará para "mitigar resultados dañinos o no intencionados", manteniendo su compromiso además a la hora de evitar sesgos injustos. A su vez, Google afirma que alineará sus prácticas de IA con los principios aceptados de derechos humanos y derecho internacional. Sin embargo, la compañía ha firmado contratos con los ejércitos de Estados Unidos e Israel para proporcionar servicios en la nube, una situación que ha provocado diferentes protestas a nivel interno. De hecho, muchos trabajadores no esconden su preocupación por la participación de la empresa en proyectos con aplicaciones militares.
En relación a la participación de la IA en terreno militar, el jefe de IA del Departamento de Defensa de EE.UU. alegó que algunos modelos están "acelerando la cadena de muerte" del ejército norteamericano. Google, por su parte, insiste en que sus modelos de inteligencia artificial no se utilizan para hacer daño, dado que la compañía mantiene que su tecnología no tiene relación con fines destructivos. Por ello, aunque el cambio sugiera que Google está más abierta a colaborar con el sector militar, dicha postura choca con su visión más restrictiva en el pasado.
En 3DJuegos | La polémica estrategia de Google para reducir su plantilla sin despedir a nadie se basa en los "abandonos voluntarios"
Ver todos los comentarios en https://www.3djuegos.com
VER 1 Comentario