Bing está dando de qué hablar. La renovada versión del buscador de Microsoft acaba de estrenar un chatbot conversacional cuyo comportamiento difiere en ciertos aspectos del famoso ChatGPT. Como hemos podido comprobar, este programa entabla conversaciones, responde con bastante naturalidad y hasta muestra interés por las charlas.
Sim embargo, hay momentos en las que este personaje virtual empieza a desvariar. Muchos usuarios han dejado registro de ello en las redes sociales. Aunque no podemos verificar la autenticidad de las capturas, algunos señalan que Bing Chat se ha mostrado “decepcionado y frustrado”, incluso que tiene problemas para recordar conversaciones anteriores.
Bing Chat está siendo un fenómeno muy popular, por lo que rápidamente muchos expertos salieron a brindar su opinión sobre estos comportamientos erráticos del modelo de IA. No obstante, ha sido la propia Microsoft la que ha salido aclarar el asunto. Sus creadores reconocen que la aplicación suele dar respuestas inesperadas e incluso señalan el por qué.
“Las sesiones de chat muy largas pueden confundir al modelo sobre qué preguntas está respondiendo y, por lo tanto, creemos que es posible que debamos agregar una herramienta para que pueda actualizar el contexto más fácilmente o comenzar desde cero”, dice la compañía en un artículo publicado en el blog de Bing.
Fuente: Javier Marquez | Xataka
Para leer más ingresa a: https://www.xataka.com/robotica-e-ia/sesiones-muy-largas-pueden-confundirlo-microsoft-explica-que-bing-a-veces-pierde-papeles