Pracownicy Google twierdzą, że sztuczna inteligencja Barda jest „gorsza niż bezużyteczna”, a względy etyczne są ignorowane

Pracownicy Google twierdzą, że sztuczna inteligencja Barda jest „gorsza niż bezużyteczna”, a względy etyczne są ignorowane

Z perspektywy Google Bard wygląda na chętną do konkurowania z ChatGPT, a niektórzy pracownicy Google się z tym zgadzają. Nowy raport Bloomberga, w którym przeprowadzono ankietę wśród 18 obecnych i byłych pracowników, jest pełen potępiających komentarzy i obaw związanych z „pozbawieniem praw wyborczych i zdemoralizowaniem zespołów zajmujących się etyką AI”, aby Google mógł wyrzucić Barda za drzwi.

Według raportu pracownicy Google zostali poproszeni o przetestowanie przedpremierowej wersji Barda w celu uzyskania opinii, które zostały w dużej mierze zignorowane, aby Bard mógł uruchomić się szybciej. Wewnętrzne dyskusje oglądane przez Bloomberg nazwały Barda „godnym drżenia” i „patologicznym kłamcą”. Zapytany, jak wylądować samolotem, podał błędne instrukcje, które doprowadziłyby do katastrofy. Jeden z pracowników poprosił o instrukcje nurkowania i otrzymał odpowiedź, która, jak powiedział, „prawdopodobnie doprowadziłaby do poważnych obrażeń lub śmierci”. Jeden z pracowników opisał problemy Barda w lutowym poście zatytułowanym „Bard jest bardziej niż bezużyteczny: proszę nie uruchamiać”. Bard wystartował w marcu.

Prawdopodobnie to samo można powiedzieć o konkurencie AI, którego ściga Google, ChatGPT firmy OpenAI. Oba mogą podawać stronnicze lub fałszywe informacje i halucynować błędne odpowiedzi. Google jest daleko w tyle za ChatGPT, a firma panikuje z powodu zdolności ChatGPT do odpowiadania na pytania, które ludzie mogliby wpisywać w wyszukiwarce Google. Twórca ChatGPT, OpenAI, był krytykowany za luźne podejście do bezpieczeństwa i etyki sztucznej inteligencji. Teraz Google jest w trudnej sytuacji. Jeśli jedynym zmartwieniem firmy jest uspokojenie giełdy i dogonienie ChatGPT, prawdopodobnie nie będzie ona w stanie tego zrobić, jeśli spowalnia kwestie etyczne.

Meredith Whittaker, była menedżerka Google i prezes Signal Foundation, powiedziała Bloombergowi, że „etyka sztucznej inteligencji zeszła na dalszy plan” w Google i mówi, że „jeśli etyka nie będzie traktowana priorytetowo nad zyskiem i wzrostem, nie będzie działać”. W ostatnich latach kilku liderów Google ds. Bloomberg informuje, że przeglądy etyczne Google dotyczące sztucznej inteligencji są dziś „prawie całkowicie dobrowolne”.

Chociaż możesz zrobić coś w Google, aby spróbować spowolnić wydawanie ze względów etycznych, prawdopodobnie nie będzie to dobre dla twojej kariery. W raporcie czytamy: „Jeden z byłych pracowników powiedział, że poprosił o pracę nad uczciwością w uczeniu maszynowym i był regularnie odradzany – do tego stopnia, że ​​wpłynęło to na ich ocenę wydajności. Menedżerowie protestowali, że przeszkadza to w ich „prawdziwej pracy”. “

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *