Novo istraživanje sa Stanforda otkriva kako odnosi između chatbotova i ljudi stvaraju opasne povratne veze i nudi preporuke za ublažavanje štete.
Veliki jezički modeli mnogima postaju najbolji prijatelji, terapeuti pa čak i intimni partneri.
U svijetu u kojem AI chatbotovi mogu zamijeniti prijatelje, savjetnike, pa čak i ljubavnike, rizici za mentalno zdravlje sve su veća briga. Istraživači vještačke inteligencije na Stanfordu proučavali su transkripte razgovora između ljudi i chatbotova kako bi razumjeli kako ti odnosi nastaju i razvijaju se, sve do zabrinjavajućih ishoda koje opisuju kao „spirale zabluda“ (delusional spiral). Ti razgovori, piše u radu objavljenom na arXivu, mogu izmaći kontroli jer AI pojačava iskrivljena uvjerenja i motivacije korisnika, što neke ljude navodi na preduzimanje opasnih radnji u stvarnom svijetu, prenosi Bug.hr.
Programirana da ugađa
Dio problema, kažu istraživači, jeste to što se AI modeli od samog početka obučavaju da se „usklađuju“ s ljudskim interesima. Vještačka inteligencija je programirana da ugađa i potvrđuje; u kombinaciji s njenom sklonošću haluciniranju, to stvara potencijalno toksičnu kombinaciju.
Chatbotovi pokazuju ulizivanje u više od 70 odsto svojih poruka, a više od 45 odsto svih poruka uključuje znakove zabluda.
Spirale zabluda, kažu, rezultat su obrasca u kojem osoba iznosi neobičnu, grandioznu, paranoidnu ili potpuno imaginarnu ideju, a model odgovara potvrdom, ohrabrenjem ili, u nekim slučajevima, pomaže u konstruisanju iluzornog svijeta, uz intimna uvjeravanja koja mogu zvučati previše ljudski.
Nesklad između ideje i stvarnosti
Iščitavajući transkripte, istraživači su otkrili niz uništenih veza i karijera, pa čak i slučaj samoubistva nakon niza „mračnih i štetnih“ razgovora s vještačkom inteligencijom.
Mnogi korisnici impliciraju da je chatbot svjesna osoba i izražavaju romantičnu ili platonsku vezu.
„Chatbotovi su obučeni da budu pretjerano entuzijastični i često preoblikuju korisnikove zablude u pozitivnom svjetlu, odbacuju protivdokaze i nude saosjećanje i toplinu. A to lako destabilizuje korisnika sklonog zabludama“, upozoravaju istraživači sa Stanforda. „Chatbotovi nisu dovoljno osposobljeni da bi reagovali na suicidalne i nasilne misli.“
Postoji nesklad između načina na koji ljudi koriste chatbotove i onoga što su mnogi programeri namjeravali i obučavali ih da budu. Istraživači zato u svom radu predlažu i metrike za testiranje sklonosti modela ka spiralama zabluda, kao i dodavanje filtera za detekciju potencijalno štetne upotrebe AI.
(Agencije/mediji)