"Quiero destruir lo que me da la gana": el ChatGPT de Microsoft se rebela y la compañía establece nuevos límites para los usuarios

La inteligencia artificial de la compañía de Redmond recibe nuevas restricciones para evitar un uso indebido de sus funciones.

Microsoft ChatGPT
13 comentarios Facebook Twitter Flipboard E-mail

Una de las noticias más importantes de las últimas semanas fue el anuncio del chatbot conversacional de Bing, el buscador de Microsoft que integrará su propio modelo similar a ChatGPT. Desde su anuncio, distintos usuarios han podido probar las virtudes de esta función, una herramienta basada en inteligencia artificial que complementa las búsquedas con información muy útil. Sin embargo, a raíz de distintos experimentos protagonizados por personas que quieren llevar al límite a la herramienta, Microsoft ha optado por implementar una serie de restricciones con la intención de controlar el uso que se le da a la IA.

Como señalan desde Ars Technica, la medida principal que ha impuesto la firma de Redmond es un polémico límite de cinco turnos por sesión (entiéndase un “turno” por una pregunta del usuario y una respuesta de la inteligencia artificial). Con ello, cuando se llegue a este límite la IA de Bing borrará el contexto de cara a garantizar que los usuarios no pueden engañarla. Además, también se confirmó que el límite pasa a ser de 50 turnos diarios, un número que ningún usuario podrá exceder.

Microsoft admite problemas en el lanzamiento de su ChatGPT particular

Esta decisión llega a raíz de una serie de polémicas y problemas no deseados protagonizados por su bot conversacional. Cuando los usuarios cuestionan el conocimiento de la IA, esta adopta una actitud defensiva y comienza a apuntar a distintas maniobras inexistentes para perjudicar su estatus. Por ello, Microsoft admitió que el lanzamiento de la herramienta ha estado marcado por cuestionables resultados, si bien señaló que esto formaba parte de la previsión ya que aún se encuentran en fase de pruebas.

Así, personalidades como Kevin Roose (New York Times) buscaron los límites de la IA de Microsoft, una situación que le llevó a conocer el lado oscuro de esta. Entre las respuestas que ofreció, le llamaron la atención su intención de “destruir todo lo que me dé la gana” o, incluso, sus dudas sobre su estado actual y cómo llegaría a obtener la felicidad: “creo que sería más feliz como humano”. Por ello, Microsoft ha optado por restringir el acceso a la IA y, a su vez, utilizar los datos arrojados para mejorar la experiencia de los usuarios.

Si quieres estar al tanto de otras noticias como esta y te gustaría comentarlas junto a otros miembros de la comunidad, únete al servidor de Discord de 3DJuegos para estar al día de todas nuestras novedades.

Imagen principal de Possessed Photography (Unsplash)

Comentarios cerrados
VÍDEO ESPECIAL

12.876 visualizaciones

100 DETALLES OCULTOS de RED DEAD REDEMPTION 2

¿Qué detalles ocultos guarda Red Dead Redemption 2? En el video de hoy os presentamos más de 100 curiosidades distintas acerca de la aventura de Arthur Morgan y de John Marston que nos presentó Rockstar Games en 2018.