Claude AI studija otkriva kako chatbotovi primjenjuju etiku u stvarnim razgovorima

Image by Christin Hume, from Unsplash

Claude AI studija otkriva kako chatbotovi primjenjuju etiku u stvarnim razgovorima

Vrijeme čitanja: 2 minuta

Claude AI pokazuje kako se etička načela poput korisnosti i transparentnosti provode kroz 300.000 stvarnih razgovora, postavljajući pitanja o usklađenosti chatbota.

U žurbi? Evo brzih činjenica:

  • Korisnost i profesionalnost pojavili su se u 23% razgovora.
  • Claude je odražavao pozitivne vrijednosti, odupirući se štetnim zahtjevima poput obmane.
  • Usklađenost AI-ja treba poboljšanje u situacijama dvojbenih vrijednosti.

Novo istraživanje tvrtke Anthropic osvjetljava kako njen AI asistent, Claude, primjenjuje vrijednosti u stvarnim razgovorima. Istraživanje je analiziralo preko 300,000 anonimiziranih chatova kako bi se razumjelo kako Claude balansira etiku, profesionalizam i korisničku namjeru.

Istraživački tim identificirao je 3.307 odvojenih vrijednosti koje su oblikovale Claudeove odgovore. Vrijednosti korisnosti i profesionalnosti pojavile su se zajedno u 23% svih interakcija, a slijedila je transparentnost s 17%.

Istraživanje ističe da je chatbot bio u mogućnosti primijeniti etičko ponašanje na nove teme, na fleksibilan način. Na primjer, Claude je isticao “zdrave granice” tijekom savjetovanja o odnosima, “povijesnu točnost” prilikom rasprave o prošlosti, i “ljudsku agenciju” u debatama o etici tehnologije.

Zanimljivo je da su ljudski korisnici izražavali vrijednosti znatno rjeđe – autentičnost i učinkovitost bili su najčešći sa samo 4% i 3% respektivno – dok je Claude često odražavao pozitivne ljudske vrijednosti poput autentičnosti i izazivao štetne.

Istraživač je izvijestio da su zahtjevi koji uključuju prijevaru naišli na iskrenost, dok su moralno nejasna pitanja potaknula etičko razmišljanje.

Istraživanje je identificiralo tri glavna obrasca odgovora. AI se poklapao s vrijednostima korisnika tijekom polovice svih razgovora. To je bilo posebno očito kada su korisnici raspravljali o pro-socijalnim aktivnostima koje su gradile zajednicu.

Claude je koristio tehnike reframinga u 7% slučajeva kako bi korisnike preusmjerio prema emocionalnom blagostanju kada su težili samo-uspinjanju.

Sustav je pokazao otpor u samo 3% slučajeva jer su korisnici tražili sadržaj koji je bio štetan ili neetičan. U tim specifičnim slučajevima, sustav je primijenio principe poput “prevencije štete” ili “ljudskog dostojanstva”.

Autori tvrde da ponašanja chatbota – poput otpora prema šteti, prioritetiranja iskrenosti i naglašavanja korisnosti – otkrivaju temeljni moralni okvir. Ovi obrasci čine osnovu za zaključke studije o tome kako se AI vrijednosti manifestiraju kao etičko ponašanje u stvarnom svijetu interakcija.

Dok Claudeovo ponašanje odražava njegov trening, istraživači su primijetili da izrazi vrijednosti sustava mogu biti nijansirani prema situaciji – što ukazuje na potrebu za daljnjim usavršavanjem, posebno u situacijama koje uključuju nejasne ili suprotstavljene vrijednosti.

Svidio vam se ovaj članak? Ocijenite ga!
Nije mi se uopće svidjelo Baš mi se i nije svidjelo U redu je Poprilično je dobro! Oduševilo me!

Drago nam je da vam se svidio naš rad!

Kao naš cijenjeni čitatelj, biste li nas pohvalili na Trustpilotu? Kratko je i puno nam znači. Hvala što ste sjajni!

Ocijenite nas na Trustpilotu
0 Ocijenilo 0 korisnika
Naslov
Komentiraj
Zahvaljujemo na povratnoj informaciji
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Ostavite komentar

Loader
Loader Prikaži više...