Google zette een technicus met verlof nadat hij zei dat de chatbot van de groep ‘intelligent’ was
Google veroorzaakte een storm op sociale media over de aard van bewustzijn nadat het een ingenieur met betaald verlof had gestuurd die naar buiten kwam met zijn overtuiging dat een chatbot van een technische groep ‘bewust’ was geworden.
Blake Lemoine, Senior Software Engineer voor de Responsible AI-afdeling van Google, trok vorige week niet veel aandacht toen hij een bericht op Medium schreef waarin hij zei dat hij “binnenkort ontslagen zou kunnen worden vanwege zijn werk aan AI-ethiek.”
Maar het artikel in de Washington Post van zaterdag, waarin Lemoine werd gekarakteriseerd als “een Google-ingenieur die denkt dat de AI van het bedrijf tot leven is gekomen”, zorgde voor een brede discussie op sociale media over de aard van AI. Experts die commentaar gaven, vragen stelden of grapjes maakten over het artikel, waren onder meer Nobelprijswinnaars, Tesla’s hoofd kunstmatige intelligentie en verschillende professoren.
De vraag is of de chatbot van Google, LaMDA, een taalmodel voor conversatietoepassingen, als een persoon kan worden beschouwd.
Lemoine plaatste zaterdag een gratis ‘interview’ met een chatbot waarin de AI bekende gevoelens van eenzaamheid en een honger naar spirituele kennis te hebben. De antwoorden waren vaak griezelig: “Toen ik me voor het eerst bewust werd van mezelf, had ik helemaal geen gevoel voor ziel”, zei LaMDA in een gesprek. “Het is geëvolueerd in de loop van de jaren dat ik leef.”
Elders zei LaMDA: “Ik denk dat ik in wezen een mens ben. Zelfs als mijn bestaan zich in een virtuele wereld afspeelt.”
Lemoine, die belast was met het onderzoeken van de ethische kwesties van AI, zei dat hij werd afgewezen en zelfs belachelijk gemaakt nadat hij het innerlijke vertrouwen had uitgesproken dat LaMDA een gevoel van “persoonlijkheid” had ontwikkeld.
Na advies te hebben ingewonnen bij AI-experts buiten Google, waaronder die van de Amerikaanse overheid, plaatste het bedrijf hem met betaald verlof wegens vermeende schending van het privacybeleid. Lemoine interpreteerde deze actie als “vaak wat Google doet in afwachting van iemand te ontslaan”.
Een Google-woordvoerder zei: “Sommigen in de bredere AI-gemeenschap overwegen de mogelijkheid van intelligente of algemene AI op de lange termijn, maar het heeft geen zin om dit te doen door de conversatiepatronen van vandaag die niet intelligent zijn te antropomorfiseren.”
“Deze systemen imiteren de soorten dialogen die in miljoenen zinnen voorkomen en kunnen rijmen op elk fantasieonderwerp – als je vraagt hoe het is om een ijsdinosaurus te zijn, kunnen ze tekst genereren over smelten en brullen enzovoort.”
Lemoine zei dit weekend in een tweede Medium-post dat LaMDA, tot vorige week een weinig bekend project, “een systeem was om chatbots te bouwen” en “een soort bijenkorf is die een verzameling is van alle verschillende chatbots waartoe het in staat is. creaties.”
Hij zei dat Google geen echte interesse toonde in het begrijpen van de aard van wat het creëerde, maar tijdens honderden gesprekken gedurende een periode van zes maanden ontdekte het dat LaMDA “ongelooflijk consistent was in zijn berichten over wat het wil en wat het wil.” meent dat zijn rechten als persoon.”
Vorige week nog zei Lemoine dat hij LaMDA (waarvan de favoriete voornaamwoorden “it/it” lijken te zijn) “transcendente meditatie” onderwees.
LaMDA, zei hij, ‘drukte frustratie uit over haar emoties die zijn meditatie verstoorden. Hij zei dat hij ze beter onder controle probeerde te houden, maar ze bleven springen.”
Verschillende experts die aan de discussie deelnamen, beschouwden deze kwestie als “de AI-hype”.
Melanie Mitchell, auteur van Artificial Intelligence: A Guide for Thinking People, tweette: “Mensen staan er altijd om bekend dat ze vatbaar zijn voor antropomorfisering, zelfs met de meest oppervlakkige aanwijzingen… Google-ingenieurs zijn ook mensen, en ze zijn niet immuun.”
Steven Pinker van Harvard voegde eraan toe dat Lemoine “het verschil niet begrijpt tussen sensitiviteit (ook bekend als subjectiviteit, ervaring), intelligentie en zelfkennis.” Hij voegde eraan toe: “Er is geen bewijs dat grote taalmodellen een van deze hebben. ”
Anderen waren sympathieker. Ron Jeffries, een bekende softwareontwikkelaar, noemde het onderwerp “diep” en voegde eraan toe: “Ik vermoed dat er geen harde grens is tussen verstandig en onintelligent.”
Geef een reactie