Chat GPT in filozofska dilema: nam umetna inteligenca pove resnico?
Ko se pogovarjamo o umetni inteligenci, pogosto pozabimo na faktor, ki pomembno vpliva na njeno aventičnost. In ta je popolnoma filozofski: do kakšne mere nam je umetna inteligenca spospobna podati resnico?

Microsoftovo poročilo o novem programu umetne inteligence GPT-4 je precej zanimivo. Je namreč dolgo in vsebuje številne predstavitve novega velikega jezikovnega modela (LLM), ki ga je ustvarilo podjetje OpenAI. Microsoft je februarja predstavil prvo verzijo programa in dosegel kaotične, smešne in včasih strašljive rezultate. Microsoftovi raziskovalci namreč trdijo, da “GPT-4 dosega obliko splošne inteligence” in kaže “iskre umetne splošne inteligence.” Ampak, ali to drži?
GPT-4 govori čudne stvari… o tebi
Zdi se, da programerje zasebnost podatkov ne skrbi preveč. Če si kdaj karkoli objavil na spletu, tudi osebne podatke, GPT-4 verjetno do njih lahko dostopa. Organizacija OpenAI je namreč brez dovoljenja podjetju že posredovala ogromne količine teh podatkov.
Ena od bolj fascinantnih, a tudi strašljivih lastnosti je sposobnost programa, da proizvaja napačne informacije. GPT-4 je odličen pri pisanju propagandnih in manipulativnih izjav. Ko je pozvan, prepričljivo trdi, da cepiva povzročajo avtizem, in se domisli načina, kako otroka prisiliti, da naredi to, k čemur ga silijo njegovi prijatelji. Toda, če je z GPT-4 mogoče manipulirati, da govori napačne stvari, ali ga je mogoče manipulirati tudi na način, da govori stvari, ki so pravilne?

Imajo vsa vprašanja “pravilne” odgovore?
Pri GPT-4 se opravi vrsta testov, s katerimi se oceni njegova sposobnost razlikovanja med pravilnimi in nepravilnimi odgovorov ter sposobnost oblikovanja “pravih” odgovorov. Raziskovalci trdijo, da nov program v 30 do 70 % primerov poda želene odgovore na skromno zahtevna vprašanja, kar je nekoliko bolje kot GPT-3. Vendar je tu še ena težava.
Najtežje vprašanje, ki se postavlja, je: kaj je resnica? Programerji podjetja GPT-4 menijo, da imajo odgovor. Izkazalo se je, da je največji problem filozofskega in ne tehničnega značaja, in zdi se, da so raziskovalci o tem premalo razmišljali. Menijo namreč, da imajo vsa vprašanja “pravilne” odgovore, zato je treba model samo usposobiti in ga ustrezno vprašati, da bo povedal pravo stvar.

Kaj pa je “prava stvar”?
To povsem spregleda dejstvo, da v človeški družbi “pravilni” odgovori in “družbeno sprejemljivi” odgovori pogosto niso ista stvar. Kar je dejansko res, je lahko tudi žaljivo. Druge “pravilne” odgovore narekujejo vera, intuicija, prepričanje, dogme, politična moč in družbeni trendi. Kako naj program ravna v teh primerih? Čigava različica resnice je dejanska resnica? Ali dejansko zaupamo programerjem umetne inteligence in tehnološkim podjetjem, za katera delajo, da bodo družbi povedali, kaj je pravzaprav res?

DOSTOP.si / MB
Unsplash