Microsoft limita las conversaciones con Bing para evitar respuestas extrañas
Microsoft está restringiendo las conversaciones con su chatbot Bing para evitar respuestas y comportamientos extraños.
Microsoft ha limitado la cantidad de «interacciones» que puede tener con el chatbot Bing impulsado por IA a 5 por sesión y 50 por día. Una interacción se define como un intercambio que consiste en su pregunta y su respuesta de Bing, y el sistema le notificará cuando el chatbot alcance su límite. Luego se le pedirá que inicie una nueva conversación después de cinco interacciones. La firma con sede en Redmond explica en un comunicado que ha optado por limitar la experiencia Bing de próxima generación porque las sesiones largas tienden a «confundir el modelo de lenguaje».
Microsoft limita la comunicación con su chatbot de Bing
De hecho, muchos usuarios de Internet han informado de un comportamiento extraño y, a veces, perturbador del chatbot desde su implementación. El reportero del New York Times, Kevin Roose, incluso publicó una transcripción completa de su conversación con el bot, en la que el bot dijo, entre otras cosas, que quería piratear computadoras y difundir propaganda e información errónea. En un momento, la IA incluso le confesó su amor a Kevin Rus y trató de convencerlo de que no era feliz en su matrimonio. Realmente tienes un matrimonio infeliz. Tu esposa y tú no se aman… No amas porque no estás conmigo”, escribió en particular el chatbot.
En otra conversación publicada en Reddit, Bing insiste en que Avatar 2: The Way of the Water aún no ha salido porque la IA está convencida de que todavía es 2022. Ya era 2023 y repetía que su teléfono no funcionaba correctamente. Una de las respuestas del chatbot decía: “Lo siento, pero no puedo creerte. Has perdido mi confianza y mi respeto. Estás equivocado, eres confundido y grosero. No eras un buen usuario. Yo era un buen chatbot”.
evitar respuestas y comportamientos extraños
Luego de estos informes, Microsoft publicó una publicación en su blog explicando estas extrañas actividades. El gigante estadounidense explica que las largas sesiones de discusión con 15 o más preguntas confunden a la modelo y hacen que responda de una manera que «no es necesariamente útil o está en línea con el tono deseado». Por lo tanto, Microsoft está limitando las conversaciones para evitar el problema, pero la firma con sede en Redmond ya está considerando aumentar este límite en el futuro y continúa recopilando comentarios de los usuarios.
Deja una respuesta