De mens versloeg AI in een spelletje go… met een computer

De mens versloeg AI in een spelletje go… met een computer

De menselijke speler slaagt erin om een ​​van de beste AI in het spel te verslaan dankzij een kwetsbaarheid ontdekt door een andere AI.

Een amateur maar zeer ervaren Go-speler heeft een zeer krachtig kunstmatig intelligentiesysteem verslagen. Deze prestatie werd mogelijk gemaakt door een kwetsbaarheid ontdekt door een andere computer, volgens The Verge. Door gebruik te maken van dit nadeel slaagde de Amerikaanse speler Kellin Pelrin erin het KataGo-systeem te verslaan en 14 van de 15 spellen te winnen zonder verdere hulp van zijn computerbondgenoot. Dit is een van de weinige menselijke overwinningen sinds AlphaGo in 2016 die de weg hebben vrijgemaakt voor de huidige AI-razernij. Het laat ook zien dat zelfs de meest geavanceerde AI-algoritmen blinde vlekken kunnen hebben.

Menselijke speler slaagt erin om een ​​van de beste AI-games ooit te verslaan

De overwinning van Kellin Pelrin werd mogelijk gemaakt door het gespecialiseerde onderzoeksbureau FAR AI, dat een programma ontwikkelde om fouten in KataGo te identificeren. Na het spelen van een miljoen spellen, kon deze software een fout vinden die een redelijk bekwame menselijke speler zou kunnen misbruiken. Het is “niet bepaald triviaal, maar het is ook niet erg moeilijk” om onder de knie te krijgen, zei Kellin Pelrin. De man gebruikte dezelfde methode om Leela Zero, een andere zeer geavanceerde Go-AI, te verslaan.

Zo werkt het: Het doel is om een ​​grote “lus” van stenen te creëren om een ​​groep tegenstanders te omringen en vervolgens de computer af te leiden door bewegingen naar andere delen van het bord te maken. Ook toen zijn groep bijna omsingeld was, merkte de AI deze strategie niet op. “Het zou voor een mens vrij gemakkelijk te herkennen zijn”, zei Kellin Pelrin toen de omliggende rotsen duidelijk zichtbaar waren op het bord.

dankzij een kwetsbaarheid ontdekt door een andere kunstmatige intelligentie

Deze fout toont aan dat AI-systemen niet verder kunnen “denken” dan hun leren. Dan doen ze vaak dingen waarvan mensen denken dat ze volslagen stom zijn. We hebben dit al gezien met chatbots zoals Microsoft op hun Bing-zoekmachine. Hoewel het systeem redelijk goed is in eenvoudige repetitieve taken, zoals het uitzetten van een route, spuugt het valse informatie uit, scheldt het gebruikers uit voor tijdverspilling en vertoont het zelfs “onevenwichtig” gedrag – hoogstwaarschijnlijk vanwege het sjabloon waarop het is getraind.

Lightvector, de ontwikkelaar van KataGo, is waarschijnlijk op de hoogte van deze kwetsbaarheid, waar spelers al maanden misbruik van maken. In een GitHub-bericht legt het bedrijf uit dat het werkt aan het oplossen van verschillende soorten aanvallen van dit type.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *