Microsoft förklarar det konstiga beteendet hos sin chatbot i Bing

Microsoft förklarar det konstiga beteendet hos sin chatbot i Bing

Microsoft förklarar sig för att motivera det ibland konstiga beteendet hos Bing-chatboten. Anledningen till detta, enligt ansvarigt team, är de långa utbytessessionerna med AI.

Förra veckan lanserade Microsoft sin AI-baserade chatbot för Bing i sin Edge-webbläsare, som har varit i nyheterna sedan dess. Men inte alltid av rätt anledningar . Första intrycket var bra, mycket bra, men användare började märka att Bing-boten gav ut felaktig information, skällde ut användare för att slösa tid och till och med visade ett ganska ”obalanserat” beteende. I ett märkligt samtal vägrade han att släppa banden för Avatar 2: Waterway, och insisterade på att filmen inte har kommit ut ännu eftersom det fortfarande är 2022. Boten kallade till och med användaren ”ointelligent och envis”, förresten, när han försökte berätta för Bing att han hade fel.

Microsoft förklarar sig för att motivera det ibland konstiga beteendet hos Bing-chatboten

Microsoft publicerade ett blogginlägg idag som förklarade vad som hände och hur man hanterar sådana problem. Först erkände det Redmond-baserade företaget att det inte planerade att använda Bings AI för ”allmän världsupptäckt och social underhållning.”

Dessa ”långa chattsessioner med 15 eller fler frågor” kan sänka systemet. ”Bing kan vara repetitivt eller snabbt/nudge för att ge svar som inte nödvändigtvis är till hjälp eller i linje med den ton vi vill ha”, förklarar företaget. Tydligen beror detta på att boten kan ”glömma” fråga efter fråga som den ursprungligen försökte svara på. För att fixa detta kan Microsoft lägga till ett verktyg för att återställa sökkontexten eller börja från början.

En annan fråga är mer komplex och intressant: ”Modellen försöker ibland svara eller tänka i samma ton som frågorna ställdes, vilket ibland kan leda till oönskad stil”, skriver Microsoft. Detta kräver mycket interaktion, men ingenjörerna tror att de kan fixa det genom att ge användarna mer kontroll.

Anledningen till detta, enligt ansvarigt team, är de långa utbytessessionerna med AI.

Trots dessa farhågor är testare i allmänhet mycket nöjda med Bings AI-resultat för sökning, enligt Microsoft. Det är dock möjligt att göra bättre ifrån sig ”högt tidsbundna data, såsom sportresultat i realtid.” Den amerikanska jätten försöker också förbättra faktasvar, till exempel för finansiella rapporter genom att multiplicera data med en faktor fyra . Slutligen kommer företaget också att ”lägga till en knapp för att ge dig mer kontroll för att uppmuntra noggrannhet eller kreativitet i svaret, beroende på din begäran.”

Bing Support vill tacka användarna för alla tester de har gjort, som ”hjälper till att göra produkten bättre för alla.” Samtidigt säger ingenjörer att de är förvånade över att användarna stannar upp till två timmar för att interagera med roboten. Utan tvekan kommer internetanvändare att behöva testa varje ny iteration av chatboten hela dagen, allt kan vara väldigt intressant.

Bing-subreddit har en hel del exempel på att den nya Bing-chatten går utom kontroll.

Öppna chatt i sök nu kan vara en dålig idé!

Taget här som en påminnelse om att det fanns en tid då en stor sökmotor visade detta i sina resultat. pic.twitter.com/LiE2HJCV2z

— Vlad (@vladquant) 13 februari 2023

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *