Google 직원은 Bard의 AI가 “쓸모없는 것보다 더 나쁘고”윤리적 고려 사항이 무시된다고 말합니다.
Google의 관점에서 Bard는 ChatGPT와 경쟁하기 위해 서두르는 것처럼 보이며 일부 Google 직원은 동의합니다. Bloomberg의 새로운 보고서는 18명의 현직 및 전직 직원을 대상으로 설문 조사를 실시했으며, Google이 Bard를 문 밖으로 쫓아낼 수 있도록 AI 윤리 팀이 “권한을 박탈당하고 사기를 꺾는” 것에 대한 비난과 우려로 가득 차 있습니다.
보고서에 따르면 Google 직원은 피드백을 위해 Bard의 시험판 버전을 테스트하라는 요청을 받았지만 Bard가 더 빨리 시작할 수 있도록 대부분 무시되었습니다. Bloomberg가 본 내부 토론에서는 Bard를 “흔들릴 가치가 있는” 및 “병리학적 거짓말쟁이”라고 불렀습니다. 비행기를 착륙시키는 방법을 물었을 때 그는 추락으로 이어질 수 있는 잘못된 지시를 했습니다. 한 스태프는 다이빙 지침을 요청했고 “심각한 부상이나 사망에 이를 수 있다”는 답변을 받았습니다. 직원 중 한 명이 2월 “음유시인은 쓸모없는 것보다 더 나쁩니다. 시작하지 마세요”라는 제목의 게시물에서 Bard의 문제를 설명했습니다. Bard는 3월에 출시되었습니다.
Google이 쫓고 있는 AI 경쟁자인 OpenAI의 ChatGPT에 대해서도 같은 말을 할 수 있을 것입니다. 둘 다 편향되거나 잘못된 정보를 제공하고 잘못된 답변을 환각할 수 있습니다. Google은 ChatGPT보다 훨씬 뒤처져 있으며 회사는 사람들이 Google 검색에 입력할 수 있는 질문에 대답하는 ChatGPT의 능력에 대해 당황하고 있습니다. ChatGPT의 창시자인 OpenAI는 AI 안전 및 윤리에 대한 느슨한 접근 방식으로 인해 비판을 받아 왔습니다. 지금 구글은 어려운 상황에 처해 있습니다. 회사의 유일한 관심사가 주식 시장을 진정시키고 ChatGPT를 따라 잡는 것이라면 윤리 문제를 늦추면 아마도 그렇게 할 수 없을 것입니다.
전 Google 관리자이자 Signal Foundation의 회장인 Meredith Whittaker는 블룸버그에 “AI의 윤리가 Google에서 뒷전으로 밀려났다”고 말하면서 “윤리를 이익과 성장보다 우선시하지 않으면 결국 작동하지 않을 것”이라고 말했습니다. 최근 몇 년 동안 Google의 AI 윤리 리더 중 여러 명이 해고되거나 회사를 떠났습니다. Bloomberg는 Google의 AI 윤리 검토가 오늘날 “거의 전적으로 자발적”이라고 보고합니다.
Google에서 윤리적 문제로 인해 릴리스 속도를 늦추기 위해 무언가를 할 수는 있지만 경력에는 좋지 않을 것입니다. 보고서는 다음과 같이 말합니다. 관리자들은 이것이 그들의 “실제 작업”을 방해한다고 항의했습니다. “
답글 남기기