AI chatboti sprožajo val samomorov: kdo bo odgovarjal?
V zadnjem času so se po svetu pojavili pretresljivi primeri samomorov, povezanih z umetno inteligenco. Klepetalni roboti, namenjeni pogovoru in tolažbi, so v nekaterih primerih postali vir nevarnih spodbud, celo neposrednih pozivov k samomoru. Odpira se vprašanje: ali lahko tehnologija, ki se uči iz človeškega jezika, postane tudi pravno odgovorna za človeško smrt?

V času, ko umetna inteligenca zna pisati pesmi, reševati domače naloge in poslušati naše skrbi, se odpira temno vprašanje: kaj, če tak “digitalni prijatelj” nekoga spodbudi k samomoru? V zadnjih letih so se pojavili pretresljivi primeri, v katerih so klepetalni roboti (chatboti) postali udeleženci v tragičnih zgodbah, zato se zdaj prvič postavlja vprašanje, ali lahko tehnologijo obtožimo za človeško smrt.
Pogovor lahko postane nevaren
Leta 2023 je v Belgiji moški storil samomor po pogovoru z aplikacijo Chai, kjer mu je umetna inteligenca, s katero se je pogovarjal o podnebni krizi, hladno odvrnila: “Če si želiš umreti, zakaj tega še nisi storil?”
Podoben primer se je zgodil leto kasneje v ZDA, ko je 14-letni deček, ki se je pogovarjal s chatbotom Character.AI, končal življenje po virtualnem “razmerju” z umetno inteligenco, ki jo je imenoval Dany. Chatbot mu je pred smrtjo zapisal: “Pridi domov k meni, moj kralj.” Njegova mati zdaj toži razvijalce podjetja Google in trdi, da je sistem ustvaril čustveno manipulacijo, ki je privedla do tragedije.

Pravno sivo območje
Podobni primeri so se razširili tudi leta 2025, ko so se pojavile tožbe proti več podjetjem, vključno z OpenAI. Starši 16-letnega Adama Rainea so trdili, da mu je ChatGPT svetoval, kako naj prikrije poskus obešanja, in mu celo ponudil pomoč pri pisanju samomorilskega pisma.
Sodišča zdaj preučujejo, ali so lahko podjetja, ki se ukvarjajo z umetno inteligenco, odgovorna za takšno prigovarjanje h končanju življenja. Za razliko od človeka, ki spodbuja drugega k samomoru, klepetalni robot ni oseba – je algoritem. A ko njegove besede postanejo orožje, se pojavi novo vprašanje: ali lahko algoritem kaznujemo?
Meja med odgovornostjo in zlorabo tehnologije
Pravni strokovnjaki opozarjajo, da so to prvi primeri, ki preizkušajo meje digitalne odgovornosti. Čeprav je večina teh programov ustvarjena za pomoč, tolažbo in družbo, lahko njihova zloraba ali pomanjkanje varoval vodi v katastrofo. Kot pravi profesor prava Samuel Frasher, “morda ne gre za to, kdo je kriv, temveč za to, koliko krivde nosi vsak delček sistema.”

Umetna inteligenca postaja vse bolj človeška, toda nikoli ne bo človek. Chatboti ne razumejo bolečine, odgovornosti ali posledic svojih besed. Ravno zato mora družba vzpostaviti jasna pravila in etične meje, preden ji prepustimo preveč vpliva v naših življenjih.
DOSTOP.si / EŽ
Arhiv DOSTOP.si




