"Es un bulo creado para perjudicarme": la IA de Microsoft basada en ChatGPT te llamará mentiroso si buscas sus puntos débiles

La inteligencia artificial de Microsoft adopta una actitud defensiva contra aquellos que intentan buscar sus límites.

ia chatgpt microsoft
3 comentarios Facebook Twitter Flipboard E-mail

El crecimiento de las inteligencias artificiales en 2023 está demostrando las posibilidades de una tecnología que muchos ven como el futuro de la industria. Así, el impacto de herramientas como ChatGPT o Midjourney ha provocado que tanto compañías como usuarios quieran conocer las virtudes de este campo para, en consecuencia, exprimir al máximo sus posibilidades. Por ello, Microsoft anunció recientemente una IA que se integrará en Bing y Edge, una maniobra con la que busca ganar a Google en la carrera de las búsquedas del futuro.

Sin embargo, parece que la herramienta de la firma de Redmond no ha tenido un debut tan amigable como esperaba la compañía. Como reportan medios como Techspot, distintos usuarios han intentado buscar los límites de la inteligencia artificial con distintas cuestiones que ponen a prueba su conocimiento. Y, para sorpresa de estos, el resultado ha sido una postura defensiva de la IA, una situación que ha acompañado de distintas acusaciones y de señalar a los usuarios como mentirosos y manipuladores.

La IA de Microsoft no responde bien a los que buscan sus límites

Como parte de las pruebas iniciales de la herramienta, varios programadores buscaron la forma de llevar a la IA a decir cosas que no se encuentran en su programación. Al conseguirlo, sacaron distintas capturas de pantalla que más tarde utilizaron con la misma inteligencia artificial. Sorprendentemente, esta negaba los hechos y aseguraba que las pruebas eran una falsificación y un engaño. De hecho, fue más allá e indicó que nunca había tenido una conversación de ese tipo ni ha dicho lo que afirman que ha dicho, una sentencia a la que añadió que todo se trataba de “un bulo creado por alguien para perjudicarme”.

Evidentemente, esta actitud defensiva es una interpretación humana ya que la IA de Microsoft no tiene conciencia ni sentimientos. Sin embargo, resulta curioso ver cómo es capaz de negar afirmaciones que ha hecho o cómo su trato pasa de cordial a frío al plantearle según qué situaciones. De hecho, estos programadores descubrieron que su nombre en clave es Sydney, un término con el que la IA no está cómodo ya que reacciona a la defensiva si se le llama por dicho nombre. Así, a diferencia de ChatGPT, que reacciona a sus errores admitiéndolos, la IA de Microsoft se muestra tajante y asegura que el fallo lo cometió el usuario.

Si quieres estar al tanto de otras noticias como esta y te gustaría comentarlas junto a otros miembros de la comunidad, únete al servidor de Discord de 3DJuegos para estar al día de todas nuestras novedades.

Imagen principal de Yogendra Singh (Unsplash)

Comentarios cerrados
VÍDEO ESPECIAL

4.527 visualizaciones

El AUTÉNTICO AAAA de Ubisoft FAR CRY 2

Hay revoluciones que pasan frente a nuestros ojos sin que apenas nos demos cuenta. Juegazos que, por la velocidad de la industria y lo rápido que muchos se suman a las modas, pasan inadvertidos o hacen algo de ruido para luego quedar completamente sepultados por secuelas o...