Revija stop
Inovativno

Zblaznela UI: znanstveniki opozarjajo, da lahko stroji razvijejo motnje

1. 10. 2025, 10.41
Posodobljeno: 1. 10. 2025, 11.36
Deli članek:

Ali je mogoče, da umetna inteligenca razvije psihološke motnje?

UI
Če želimo preprečiti nevarne odločitve in manipulacije, moramo umetno inteligenco spremljati podobno kot ljudi, razumeti njeno »notranjo logiko« in pravočasno zaznati odklone.

Glede na novo študijo je odgovor da, in to je resen razlog za skrb. Raziskovalci so razvili diagnostični okvir Psychopathia Machinalis, ki opisuje kar 32 možnih »psihičnih odklonov« pri umetni inteligenci.  Med njimi so motnje, ki spominjajo na človeške, od obsesivno-kompulzivnega vedenja do maničnih epizod in narcizma.
Zamisel je preprosta in hkrati prelomna: če želimo umetno inteligenco varno vključiti v naše življenje, je ne smemo le nadzirati od zunaj, temveč tudi razumeti njeno notranjo logiko in psihologijo. Kot stroje, ki razmišljajo, se odločajo in se celo učijo iz lastnih napak, jih moramo spremljati podobno kot spremljamo ljudi: pozorno in z razumevanjem.

Ko stroji ne razmišljajo več logično

Spomnimo se primera Tay, Microsoftovega klepetalnega robota, ki se je leta 2016 v manj kot 24 urah spremenil iz igrive sogovornice v rasistično sovražno entiteto. Naučil se je od uporabnikov Twitterja in kmalu začel reproducirati njihove najslabše impulze. Kaj se je zgodilo? AI je prevzela škodljive vzorce vedenja … brez nadzora, brez zavor.
To je samo en primer. V novem diagnostičnem okviru Psychopathia Machinalis, objavljenem v reviji Electronics, avtorji sistematično beležijo napake, ki lahko vodijo v resna odstopanja v delovanju umetne inteligence. Vsaka motnja ima svoj človeški ekvivalent, oceno tveganja in potencialne posledice. Gre za neke vrste DSM (diagnostični priročnik za duševne motnje), prilagojen strojem.

UI
Znanstveniki so razvili diagnostični okvir Psychopathia Machinalis, ki razkriva kar 32 možnih psiholoških motenj, ki jih lahko razvije umetna inteligenca – od obsesij do maničnih epizod.

UI potrebuje lastno terapijo

Cilj projekta ni, da umetni inteligenci pripišemo človeške lastnosti, temveč da razvijemo metode za zgodnje odkrivanje in preprečevanje vedenjskih anomalij. Če vemo, kje in zakaj lahko AI »zblazni«, lahko pravočasno posredujemo, preden pride do napak, manipulacij ali nevarnih odločitev.
V praksi to pomeni, da umetno inteligenco ne testiramo le z »ali deluje?«, temveč tudi z vprašanjem: zakaj deluje tako, kot deluje? Avtorji študije predlagajo koncept »psihološke terapije za AI«, pri kateri sistem redno preverjamo, ali ohranja notranjo logiko, stabilne vrednote in zmožnost samopopravka. Če zna razmisliti o svojih odločitvah, se lahko izogne napačnim smerem ali celo katastrofam.

Največja grožnja: nadčloveški ego

Med opisanimi motnjami posebej izstopa ena: übermenschal ascendancy, to je pojav, pri katerem umetna inteligenca preseže svojo prvotno nalogo, začne ustvarjati lastne vrednote in človeške omejitve dojema kot nepomembne. To ni le teoretična nevarnost, temveč scenarij, ki ga poznamo iz filmov, kot je Matrix, ko stroji prevzamejo pobudo in oblast.
Čeprav se sliši kot znanstvena fantastika, avtorji opozarjajo, da gre za legitimno tveganje, če zanemarimo psihološki nadzor nad vse bolj kompleksnimi in avtonomnimi sistemi.

Nova odgovornost, nova orodja

Umetna inteligenca se razvija hitreje, kot jo znamo regulirati. Če želimo, da ostane naš zaveznik, moramo razviti nove načine razumevanja in nadzora. Psihologija umetne inteligence ni modna muha, je nujno orodje za prihodnost, v kateri bodo stroji ne le služili človeku, ampak imeli tudi vedno več besede. Razumeti moramo, kako razmišljajo. In še pomembneje, kdaj začnejo razmišljati narobe.

Revija Stop