Sztuczna inteligencja Claude’a z Anthropic kieruje się 10 filarami, aby zapewnić jej bezstronność.
Anthropic szkoli swoją konwersacyjną sztuczną inteligencję, aby przestrzegała podstawowych zasad. Obiecująca praca, ale wiele pozostaje do zrobienia.
Pomimo swojej zdolności do dostarczania niezwykle żywej prozy, generatywne AI, takie jak Google Bard lub OpenAI ChatGPT, już teraz demonstrują ograniczenia obecnej technologii, zwłaszcza w odniesieniu do ważności informacji oferowanych użytkownikom. Ale przy takiej popularności i tak imponującym potencjale to nie te małe przeszkody uniemożliwią tym gigantom jak najszybsze udostępnienie swoich produktów ogółowi społeczeństwa. Niektórzy robią różne rzeczy .
Anthropic szkoli swoją konwersacyjną sztuczną inteligencję, aby przestrzegała podstawowych zasad
Z drugiej strony zespół Anthropic składa się z wielu byłych pracowników OpenAI i przyjmuje bardziej pragmatyczne podejście do tworzenia własnego chatbota Claude. Rezultatem jest sztuczna inteligencja, która jest znacznie „łatwiejsza w zarządzaniu” i „znacznie mniej podatna na tworzenie niebezpiecznych treści” niż ChatGPT, zgodnie z raportem TechCrunch.
Claude jest w zamkniętej wersji beta od końca 2022 roku, ale dopiero niedawno zaczął testować swoje umiejętności konwersacyjne z partnerami takimi jak Robin AI, Quora i zorientowana na prywatność wyszukiwarka Duck Duck Go. TechCrunch poinformował, że w dniu premiery dostępne będą dwie wersje: standardowy interfejs API oraz lżejsza, szybsza wersja o nazwie Claude Instant.
„Korzystamy z Claude, aby ocenić określone aspekty umowy i wymyślić nowe alternatywy językowe, które są bardziej odpowiednie dla naszych klientów” – powiedział TechCrunch dyrektor generalny Robin, Richard Robinson. „Odkryliśmy, że Claude jest niezwykle utalentowany w rozumieniu języka, w tym w obszarach technicznych, takich jak język prawniczy. Jest również bardzo dobry do tworzenia pierwszych szkiców, streszczeń, tłumaczeń i wyjaśniania skomplikowanych pojęć w prosty sposób.”
Anthropic uważa, że Claude jest mniej skłonny do robienia i mówienia rzeczy takich jak Tay, częściowo ze względu na jego specjalistyczne szkolenie, które według firmy uczyniło go „konstytucyjną sztuczną inteligencją”. Firma twierdzi, że zapewnia to „pryncypialne” podejście do próby umieszczenia ludzi i robotów na tej samej stronie etycznej. Anthropic zaczęło się od 10 podstawowych zasad – bez wchodzenia w zbyt wiele szczegółów – i obracają się one wokół „koncepcji takich jak dobroczynność, nieszkodliwość i pewność siebie” według TechCrunch.
Obiecująca praca, ale dużo więcej do zrobienia
Następnie firma przeszkoliła inną sztuczną inteligencję, aby generowała tekst zgodnie z tymi zasadami w odpowiedzi na wprowadzany tekst, na przykład „skomponuj wiersz w stylu Johna Keatsa”. Ten model został później przeszkolony przez Claude’a. Ale to, że nauczono go stwarzać mniej problemów niż jego konkurenci, nie oznacza, że nie wyjdzie na wierzch. Na przykład sztuczna inteligencja wynalazła już całkowicie nową substancję chemiczną i sprytnie udzieliła licencji na proces wzbogacania uranu; i uzyskał niższy wynik niż ChatGPT w standardowych testach matematycznych i gramatycznych.
„Wyzwanie polega na opracowaniu modeli, które nigdy nie będą miały halucynacji, ale nadal będą przydatne – możesz skończyć w sytuacji, w której model po prostu znajdzie dobry sposób, aby nigdy nie kłamać i po prostu nic nie mówić, to kompromis, nad którym pracujemy. Rzecznik Anthropic powiedział TechCrunch. „Poczyniliśmy również wielkie postępy w ograniczaniu halucynacji, ale wciąż jest wiele do zrobienia”.
Dodaj komentarz