Techleiders en experts pleiten voor een pauze van zes maanden van AI-experimenten

Techleiders en experts pleiten voor een pauze van zes maanden van AI-experimenten

Techleiders en experts roepen op tot een pauze van zes maanden van AI-experimenten. Ze maken zich zorgen over de (te) turbulente gebeurtenissen in dit gebied en het gebrek aan veiligheid rondom.

De open brief, ondertekend door technologieleiders en andere spraakmakende AI-onderzoekers, roept AI-labs en bedrijven op om hun werk “ onmiddellijk op te schorten ”. De ondertekenaars, waaronder Steve Wozniak en Elon Musk, willen een pauze van ten minste zes maanden nemen van het produceren van op GPT-4 gebaseerde technologieën om te profiteren van bestaande AI-systemen en mensen in staat te stellen zich aan te passen en ervoor te zorgen dat iedereen hiervan kan profiteren. De brief voegt eraan toe dat nadenken en vooruitziende blik essentieel zijn om AI-systemen te beveiligen.

Techleiders en experts pleiten voor een pauze van zes maanden van AI-experimenten

De verwijzing naar GPT-4, een OpenAI-model dat met tekst kan reageren op geschreven of visuele berichten, komt omdat bedrijven al proberen geavanceerde chatsystemen te ontwikkelen met behulp van deze technologie. Microsoft heeft bijvoorbeeld onlangs bevestigd dat het zijn Bing-zoekmachine opnieuw heeft ontworpen om te profiteren van het GPT-4-model. Google van zijn kant heeft onlangs Bard gelanceerd, zijn eigen generatieve kunstmatige intelligentiesysteem op basis van LaMDA. Dit probleem bestaat al een hele tijd, maar de racetechnologiebedrijven waarin we vandaag verkeren, lijken nog zorgwekkender.

“Helaas bestaat dit niveau van planning en beheer niet, AI-labs zijn hard aan het werk om virtuele hersenen te ontwikkelen en in te zetten die niemand – zelfs niet hun makers – op enigerlei wijze kan begrijpen, voorspellen of controleren. Veilig”, lezen we in de special.

Ze maken zich zorgen over de (te) snelle ontwikkelingen in het gebied en de onveiligheid rondom

Deze brief is gepubliceerd door het Future of Life Institute (FLI), een organisatie die zich inzet voor het verminderen van de risico’s en het misbruik van nieuwe technologieën. Eerder schonk Elon Musk 10 miljoen dollar aan de FLI om de veiligheid van AI te onderzoeken. Behalve Steve Wozniak en laatstgenoemde zijn er grote namen op het gebied van AI, zoals Center for AI and Digital Policy President Mark Rothenberg, MIT-natuurkundige en FLI-president Max Tegmark, en schrijver Yuval Noah Harari. Laatstgenoemde schreef vorige week ook een opiniestuk in de New York Times over de risico’s van AI met de oprichters van het Center for Humane Technology en andere ondertekenaars Tristan Harris en Aza Raskin.

Deze oproep lijkt enigszins een logisch vervolg op een onderzoek uit 2022 onder meer dan 700 onderzoekers op het gebied van machine learning, waaruit bleek dat bijna de helft van de deelnemers zei dat er een kans van 10 procent was dat de gevolgen van AI “extreem slecht” zouden zijn tot het uitsterven van de mensheid. Op de vraag naar de veiligheid van AI-onderzoek antwoordde 68% van de onderzoekers dat er meer of veel meer moet gebeuren.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *