Claudes AI fra Anthropic er styret af 10 søjler for at sikre dens upartiskhed.
Anthropic træner sin samtale-AI til at følge grundlæggende principper. Lovende arbejde, men meget mangler at blive gjort.
På trods af deres evne til at levere utroligt levende prosa, demonstrerer generative AI’er som Google Bard eller OpenAI ChatGPT allerede begrænsningerne af den nuværende teknologi, især med hensyn til gyldigheden af den information, der tilbydes brugerne. Men med en sådan popularitet og et så imponerende potentiale, er det ikke disse små problemer, der forhindrer disse giganter i at bringe deres produkter til den brede offentlighed så hurtigt som muligt. Nogle gør tingene anderledes .
Anthropic træner sin samtale-AI til at følge grundlæggende principper
På den anden side består Anthropic-teamet af mange tidligere OpenAI-medarbejdere og har en mere pragmatisk tilgang til at udvikle deres egen Claude-chatbot. Resultatet er en AI, der er meget “mere overskuelig” og “meget mindre tilbøjelig til at skabe farligt indhold” end ChatGPT, ifølge en TechCrunch-rapport.
Claude har været i lukket beta siden slutningen af 2022, men er først for nylig begyndt at teste sine samtaleevner med partnere som Robin AI, Quora og den privatlivsfokuserede søgemaskine Duck Duck Go. TechCrunch, at to versioner vil være tilgængelige ved lanceringen: standard API og en lettere, hurtigere version kaldet Claude Instant.
“Vi bruger Claude til at evaluere specifikke aspekter af en kontrakt og komme med nye sprogalternativer, der er mere passende for vores kunder,” fortalte Robin CEO Richard Robinson til TechCrunch. “Vi fandt, at Claude var ekstremt begavet til at forstå sprog, herunder tekniske områder som juridisk sprog. Det er også meget godt til at skabe første udkast, resuméer, oversættelser og forklare komplekse begreber i enkle vendinger.”
Anthropic mener, at Claude er mindre tilbøjelig til at gøre og sige ting som Tay, delvist på grund af hans specialiserede uddannelse, som firmaet siger gjorde ham til en “konstitutionel AI”. Virksomheden siger, at dette giver en “principiel” tilgang til at forsøge at sætte mennesker og robotter på samme etiske side. Anthropic startede med 10 kerneprincipper – uden at gå for meget i detaljer – og de kredser om “begreber som velgørenhed, harmløshed og selvtillid,” ifølge TechCrunch.
Lovende arbejde, men meget mere skal gøres
Virksomheden trænede derefter en anden AI til at generere tekst i henhold til disse principper som svar på tekstinput, såsom “komponer et digt i stil med John Keats.” Denne model blev senere trænet af Claude. Men bare fordi det er blevet lært at skabe færre problemer end dets konkurrenter, betyder det ikke, at det ikke kommer ud i toppen. For eksempel har AI allerede opfundet et helt nyt kemikalie og har behændigt givet licens til uranberigelsesprocessen; og det scorede lavere end ChatGPT på standardiserede matematik- og grammatikprøver.
”Udfordringen er at udvikle modeller, der aldrig vil hallucinere, men som stadig er nyttige – man kan ende i en situation, hvor modellen bare finder en god måde at aldrig lyve og bare sige ingenting, det er et kompromis, vi arbejder på. En antropisk talsmand fortalte TechCrunch. “Vi har også gjort store fremskridt med at reducere hallucinationer, men der er stadig meget at gøre.”
Skriv et svar