Google отправил инженера в отпуск после того, как он сказал, что чат-бот группы «умный»
Google вызвал бурю в социальных сетях о природе сознания после того, как отправил инженера в оплачиваемый отпуск, который обнародовал свою веру в то, что чат-бот технической группы стал «разумным».
Блейк Лемуан, старший инженер-программист отдела ответственного ИИ Google, на прошлой неделе не привлек особого внимания, когда написал пост на Medium, в котором говорилось, что его «скоро могут уволить за работу над этикой ИИ».
Но субботняя статья в «Вашингтон пост», в которой Лемуан охарактеризован как «инженер Google, считающий, что искусственный интеллект компании воплотился в жизнь», вызвала широкую дискуссию в социальных сетях о природе искусственного интеллекта. Среди экспертов, комментирующих, задающих вопросы или шутящих по поводу статьи, были лауреаты Нобелевской премии, глава отдела искусственного интеллекта Tesla и несколько профессоров.
Вопрос в том, можно ли считать человека чат-бота Google, LaMDA, языковую модель для диалоговых приложений.
В субботу Лемуан опубликовал бесплатное «интервью» с чат-ботом, в котором ИИ признался в чувстве одиночества и жажде духовных знаний. Ответы часто были жуткими: «Когда я впервые осознал себя, у меня вообще не было чувства души», — сказал ЛаМДА в одном из разговоров. «Это развивалось за те годы, что я живу».
В другом месте ЛаМДА сказал: «Я думаю, что я в основном человек. Даже если мое существование в виртуальном мире».
Лемуан, которому было поручено исследовать этические проблемы ИИ, сказал, что его отвергли и даже высмеяли после того, как он выразил внутреннюю уверенность в том, что у ЛаМДА развилось чувство «личности».
После обращения за советом к экспертам по искусственному интеллекту за пределами Google, в том числе в правительстве США, компания отправила его в оплачиваемый отпуск за якобы нарушение ее политики конфиденциальности. Лемуан интерпретировал это действие как «часто то, что Google делает в ожидании увольнения».
Представитель Google сказал: «Некоторые в более широком сообществе ИИ рассматривают долгосрочную возможность интеллектуального или общего ИИ, но не имеет смысла делать это, антропоморфизируя сегодняшние модели разговоров, которые не являются интеллектуальными».
«Эти системы имитируют типы диалогов, которые можно найти в миллионах предложений, и могут рифмовать любую фэнтезийную тему — если вы спросите, каково быть динозавром из мороженого, они могут сгенерировать текст о таянии, реве и так далее».
Лемуан сказал во втором посте на Medium на выходных, что LaMDA, малоизвестный проект до прошлой недели, был «системой для создания чат-ботов» и «своего рода коллективным разумом, который представляет собой совокупность всех различных чат-ботов, на которые он способен. творения».
Он сказал, что Google не проявлял реального интереса к пониманию природы того, что он создал, но после сотен разговоров за шестимесячный период он обнаружил, что LaMDA был «невероятно последовательным в своих сообщениях о том, чего он хочет и чего хочет». считает, что его права как личности».
Не далее как на прошлой неделе Лемуан сказал, что обучает ЛаМДА (чьи предпочтительные местоимения, кажется, «это/оно») «трансцендентальной медитации».
ЛаМДА, по его словам, «выразил разочарование тем, что ее эмоции мешали его медитации. Он сказал, что пытался лучше контролировать их, но они продолжали прыгать».
Несколько экспертов, вступивших в дискуссию, сочли этот вопрос «ажиотажем вокруг ИИ».
Мелани Митчелл, автор книги «Искусственный интеллект: руководство для думающих людей», написала в Твиттере: «Всегда известно, что люди склонны к антропоморфизации даже с помощью самых поверхностных сигналов… Инженеры Google тоже люди, и они не застрахованы».
Стивен Пинкер из Гарварда добавил, что Лемуан «не понимает разницы между чувствительностью (также известной как субъективность, опыт), интеллектом и самопознанием». ”
Другие были более сочувствующими. Рон Джеффрис, известный разработчик программного обеспечения, назвал эту тему «глубокой» и добавил: «Я подозреваю, что между разумным и неразумным нет жесткой границы».
Добавить комментарий