NovostiTehnologija

Chatbotovi ulizice pojačavaju zablude korisnika

Share
Ilustracija
Share

Novo istraživanje sa Stanforda otkriva kako odnosi između chatbotova i ljudi stvaraju opasne povratne veze i nudi preporuke za ublažavanje štete.

Veliki jezički modeli mnogima postaju najbolji prijatelji, terapeuti pa čak i intimni partneri.

U svijetu u kojem AI chatbotovi mogu zamijeniti prijatelje, savjetnike, pa čak i ljubavnike, rizici za mentalno zdravlje sve su veća briga. Istraživači vještačke inteligencije na Stanfordu proučavali su transkripte razgovora između ljudi i chatbotova kako bi razumjeli kako ti odnosi nastaju i razvijaju se, sve do zabrinjavajućih ishoda koje opisuju kao „spirale zabluda“ (delusional spiral). Ti razgovori, piše u radu objavljenom na arXivu, mogu izmaći kontroli jer AI pojačava iskrivljena uvjerenja i motivacije korisnika, što neke ljude navodi na preduzimanje opasnih radnji u stvarnom svijetu, prenosi Bug.hr.

Programirana da ugađa

Dio problema, kažu istraživači, jeste to što se AI modeli od samog početka obučavaju da se „usklađuju“ s ljudskim interesima. Vještačka inteligencija je programirana da ugađa i potvrđuje; u kombinaciji s njenom sklonošću haluciniranju, to stvara potencijalno toksičnu kombinaciju.

Chatbotovi pokazuju ulizivanje u više od 70 odsto svojih poruka, a više od 45 odsto svih poruka uključuje znakove zabluda.

Spirale zabluda, kažu, rezultat su obrasca u kojem osoba iznosi neobičnu, grandioznu, paranoidnu ili potpuno imaginarnu ideju, a model odgovara potvrdom, ohrabrenjem ili, u nekim slučajevima, pomaže u konstruisanju iluzornog svijeta, uz intimna uvjeravanja koja mogu zvučati previše ljudski.

Nesklad između ideje i stvarnosti

Iščitavajući transkripte, istraživači su otkrili niz uništenih veza i karijera, pa čak i slučaj samoubistva nakon niza „mračnih i štetnih“ razgovora s vještačkom inteligencijom.

Mnogi korisnici impliciraju da je chatbot svjesna osoba i izražavaju romantičnu ili platonsku vezu.

„Chatbotovi su obučeni da budu pretjerano entuzijastični i često preoblikuju korisnikove zablude u pozitivnom svjetlu, odbacuju protivdokaze i nude saosjećanje i toplinu. A to lako destabilizuje korisnika sklonog zabludama“, upozoravaju istraživači sa Stanforda. „Chatbotovi nisu dovoljno osposobljeni da bi reagovali na suicidalne i nasilne misli.“

Postoji nesklad između načina na koji ljudi koriste chatbotove i onoga što su mnogi programeri namjeravali i obučavali ih da budu. Istraživači zato u svom radu predlažu i metrike za testiranje sklonosti modela ka spiralama zabluda, kao i dodavanje filtera za detekciju potencijalno štetne upotrebe AI.

(Agencije/mediji)

Share
Pročitaj još:
EvropaNovosti

Evropski savjet: Usvojen zajam Kijevu od 90 milijardi evra i novi paket sankcija Rusiji

Predsjednik Evropskog savjeta Antonio Kosta saopštio je da su formalno usvojeni kredit...

BIHNovosti

CIK BiH: „Opasne i potpuno neistinite tvrdnje“

Centralna izborna komisija BiH oglasila se povodom navoda o načinu na koji...

NovostiRS

Dodik: Posjeta Americi neizvjesna zbog lošeg zdravstvenog stanja moje majke

Predsjednik SNSD-a Milorad Dodik izjavio je danas u Banjaluci da je zbog...

NovostiRS

Vlada Srpske o Prijedlogu izmjena i dopuna Zakona o obaveznom zdravstvenom osiguranju

U Banjaluci je u toku sjednica Vlade Republike Srpske koja bi danas...