Anthropic の Claude の AI は、その公平性を確保するために 10 の柱によって導かれています。

Anthropic の Claude の AI は、その公平性を確保するために 10 の柱によって導かれています。

Anthropic は、基本原則に従うように会話型 AI をトレーニングします。有望な成果ですが、やるべきことはまだたくさんあります。

Google Bard や OpenAI ChatGPT などの生成 AI は、信じられないほど活気に満ちた散文を提供する能力にもかかわらず、特にユーザーに提供される情報の有効性に関して、現在のテクノロジーの限界をすでに示しています。しかし、これほどの人気と素晴らしい潜在力を備えたこれらの大手企業が、できるだけ早く製品を一般の人々に提供することを妨げるのは、こうした小さな問題ではありません。やり方が違う人もいます。

Anthropic は基本原則に従うように会話型 AI をトレーニングします

一方、Anthropic チームは多くの元 OpenAI 従業員で構成されており、より実用的なアプローチをとって独自の Claude チャットボットを開発しています。TechCrunchのレポートによると、その結果、ChatGPTよりもはるかに「管理しやすく」「危険なコンテンツを作成する可能性がはるかに低い」AIが誕生したという。

クロードは 2022 年末からクローズド ベータ版を提供していますが、Robin AI、Quora、プライバシー重視の検索エンジン Duck Duck Go などのパートナーとの会話能力のテストを開始したのはつい最近です。TechCrunch によると、発売時には 2 つのバージョンが利用可能になります。標準 API と、Claude Instant と呼ばれる軽量で高速なバージョンです。

「私たちは契約の特定の側面を評価し、クライアントにとってより適切な新しい言語の代替案を考案するためにクロードを使用しています」とRobinのCEOであるRichard Robinson氏はTechCrunchに語った。「私たちは、クロードが法律用語などの技術的な領域を含む言語を理解することに非常に優れていることを発見しました。また、初稿、要約、翻訳を作成し、複雑な概念を簡単な言葉で説明するのにも非常に適しています。」

アンスロピック氏は、クロード氏がテイのような行動や発言をする可能性は低いと考えている。その理由の一部は、クロード氏が「憲法に適合したAI」になったと同社が主張する専門的な訓練を受けているためだという。同社は、これは人間とロボットを同じ倫理的ページに並べようとする「原則的な」アプローチを提供すると述べている。TechCrunch によると、Anthropic は 10 の基本原則から始まり、詳細には触れませんが、それらは「慈善、無害、自信などの概念」を中心に展開しています。

有望な仕事だが、やるべきことはまだたくさんある

次に同社は、「ジョン キーツのスタイルで詩を作成する」などのテキスト入力に応じて、これらの原則に従ってテキストを生成するように別の AI をトレーニングしました。このモデルは、後にクロードによってトレーニングされました。しかし、競合他社よりも問題を少なくするように教えられてきたからといって、それがトップにならないというわけではありません。たとえば、AI はすでにまったく新しい化学物質を発明し、ウラン濃縮プロセスを巧みに認可しました。そして標準化された数学と文法テストではChatGPTよりもスコアが低かった。

「課題は、決して幻覚を起こさず、それでも有用なモデルを開発することです。最終的には、モデルが決して嘘をつかず、ただ何も言わないための良い方法を見つけるだけの状況に陥る可能性があります。それが私たちが取り組んでいる妥協案です。Anthropicの広報担当者はTechCrunchに語った。「幻覚の減少においても大きな進歩を遂げてきましたが、やるべきことはまだたくさんあります。」

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です