Techničtí lídři a experti volají po šestiměsíční pauze od experimentování s umělou inteligencí

Techničtí lídři a experti volají po šestiměsíční pauze od experimentování s umělou inteligencí

Techničtí lídři a experti volají po šestiměsíční pauze od experimentování s umělou inteligencí. Jsou znepokojeni (příliš) turbulentními událostmi v této oblasti a nedostatkem bezpečnosti v okolí.

Otevřený dopis podepsaný technologickými lídry a dalšími významnými výzkumníky AI vyzývá laboratoře a společnosti AI, aby „ okamžitě pozastavily “ svou práci. Signatáři, včetně Steva Wozniaka a Elona Muska, by si rádi dali alespoň šest měsíců pauzu od výroby technologií na bázi GPT-4, aby využili stávající systémy umělé inteligence a umožnili lidem přizpůsobit se a zajistit, že budou přínosem pro všechny. Dopis dodává, že pro zabezpečení systémů umělé inteligence jsou zásadní myšlenky a předvídavost.

Techničtí lídři a experti volají po šestiměsíční pauze od experimentování s umělou inteligencí

Odkaz na GPT-4, model OpenAI, který dokáže reagovat textem na psané nebo vizuální zprávy, přichází v době, kdy se společnosti již snaží vyvinout sofistikované chatovací systémy využívající tuto technologii. Microsoft například nedávno potvrdil, že přepracoval svůj vyhledávač Bing, aby využil výhod modelu GPT-4. Google ze své strany nedávno spustil Bard, svůj vlastní generativní systém umělé inteligence založený na LaMDA. Tento problém je tu již dlouhou dobu, ale zdá se, že dnešní závodní technologické společnosti jsou ještě znepokojivější.

„Tato úroveň plánování a řízení bohužel neexistuje, laboratoře umělé inteligence usilovně pracují na vývoji a nasazování virtuálních mozků, kterým nikdo – ani jejich tvůrci – nemůže porozumět, předvídat nebo jakkoli ovládat. Bezpečně,“ můžeme číst ve speciálu.

Obávají se (příliš) rychlého vývoje v oblasti a nejistoty kolem

Tento dopis zveřejnil Future of Life Institute (FLI), organizace zavázaná ke snižování rizik a zneužívání nových technologií. Již dříve Elon Musk daroval 10 milionů dolarů FLI na studium bezpečnosti AI. Kromě Steva Wozniaka a posledně jmenovaného jsou zde velká jména v oblasti umělé inteligence, jako je prezident Centra pro umělou inteligenci a digitální politiky Mark Rothenberg, fyzik MIT a prezident FLI Max Tegmark a spisovatel Yuval Noah Harari. Posledně jmenovaný také minulý týden napsal v New York Times op-ed o rizicích, která představuje AI, se zakladateli Center for Humane Technology a dalšími signatáři Tristanem Harrisem a Azou Raskinem.

Tato výzva se zdá být poněkud logickým pokračováním průzkumu z roku 2022 mezi více než 700 výzkumníky strojového učení, který zjistil, že téměř polovina účastníků uvedla, že existuje 10procentní šance, že důsledky umělé inteligence budou „extrémně špatné“ až do vyhynutí lidstva. Když se ptali na bezpečnost výzkumu AI, 68 % výzkumníků odpovědělo, že je třeba udělat více nebo mnohem více.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *