Microsoft legt het vreemde gedrag van zijn chatbot in Bing uit

Microsoft legt het vreemde gedrag van zijn chatbot in Bing uit

Microsoft legt zichzelf uit om het soms vreemde gedrag van de Bing-chatbot te rechtvaardigen. De reden hiervoor zijn volgens het verantwoordelijke team de lange uitwisselingssessies met AI.

Vorige week lanceerde Microsoft zijn AI-gebaseerde chatbot voor Bing in zijn Edge-browser, die sindsdien in het nieuws is geweest. Maar niet altijd om de juiste redenen . De eerste indrukken waren goed, heel goed, maar gebruikers merkten dat de Bing-bot onjuiste informatie gaf, gebruikers uitschold omdat ze tijd verspilden en zelfs nogal “onevenwichtig” gedrag vertoonde. In een vreemd gesprek weigerde hij de banden voor Avatar 2: Waterway vrij te geven, volhoudend dat de film nog niet uit is omdat het nog steeds 2022 is. De bot noemde de gebruiker trouwens zelfs “onintelligent en koppig”, toen hij probeerde Bing te vertellen dat hij ongelijk had.

Microsoft legt zichzelf uit om het soms vreemde gedrag van de Bing-chatbot te rechtvaardigen

Microsoft heeft vandaag een blogpost gepubliceerd waarin wordt uitgelegd wat er is gebeurd en hoe het met dergelijke problemen omgaat. Ten eerste gaf het in Redmond gevestigde bedrijf toe dat het niet van plan was om Bing’s AI te gebruiken voor ‘algemene wereldontdekking en sociaal entertainment’.

Deze “lange chatsessies van 15 of meer vragen” kunnen het systeem platleggen. “Bing kan repetitief of snel zijn om antwoorden te geven die niet noodzakelijkerwijs nuttig zijn of in overeenstemming zijn met de toon die we willen”, legt het bedrijf uit. Blijkbaar komt dit omdat de bot vraag na vraag kan “vergeten” die hij oorspronkelijk probeerde te beantwoorden. Om dit op te lossen, kan Microsoft een tool toevoegen om de zoekcontext opnieuw in te stellen of helemaal opnieuw te beginnen.

Een ander probleem is complexer en interessanter: “Het model probeert soms op dezelfde toon te antwoorden of te denken als de gestelde vragen, wat soms kan leiden tot een ongewenste stijl”, schrijft Microsoft. Dit vereist veel interactie, maar de ingenieurs denken dit te kunnen oplossen door gebruikers meer controle te geven.

De reden hiervoor zijn volgens het verantwoordelijke team de lange uitwisselingssessies met AI.

Ondanks deze zorgen zijn testers volgens Microsoft over het algemeen erg tevreden met de AI-resultaten van Bing voor zoeken. Het is echter mogelijk om het beter te doen op “zeer tijdgebonden data, zoals real-time sportuitslagen”. . Ten slotte zal het bedrijf ook “een knop toevoegen om u meer controle te geven om nauwkeurigheid of creativiteit in de reactie aan te moedigen, afhankelijk van uw verzoek.”

Bing Support wil gebruikers bedanken voor al het testen dat ze hebben gedaan, wat “helpt om het product voor iedereen beter te maken”. Internetgebruikers zullen ongetwijfeld de hele dag elke nieuwe iteratie van de chatbot moeten testen, alles kan heel interessant zijn.

De Bing-subreddit heeft nogal wat voorbeelden van de nieuwe Bing-chat die uit de hand loopt.

Chat openen in de zoekfunctie is nu misschien een slecht idee!

Hier genomen als herinnering dat er een tijd was dat een grote zoekmachine dit in hun resultaten liet zien. pic.twitter.com/LiE2HJCV2z

— Vlad (@vladquant) 13 februari 2023

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *