Ob prehodu v leto 2026 so na portalu The Conversation objavili razmislek, ki ni ravno spodbuden. Lepo bi bilo verjeti, da bomo novo leto začeli z več odgovornosti in manj ponavljanja starih napak. A realnost je drugačna. Deepfaki, torej globoki ponaredki, lažne podobe, videi in glasovi, ustvarjeni z umetno inteligenco, se ne umikajo. Nasprotno, njihova rast se pospešuje.
Prispevek je napisal Siwei Lyu, profesor računalništva in direktor laboratorija UB Media Forensic Lab na Univerzi v Buffalu. Konec leta 2025 po njegovih besedah ponuja dovolj jasne signale, da lahko precej natančno napovemo, kaj nas čaka v letu 2026. Ključna ugotovitev je zaskrbljujoča: deepfaki so postali tako prepričljivi, da jih je v mnogih primerih praktično nemogoče ločiti od resničnih vsebin.
Posebno pozornost je avtor namenil dvem primerom, kjer so deepfaki še posebej učinkoviti: videoklicem v nizki ločljivosti in družbenim omrežjem.
Na The Conversation so kot primer izpostavili tudi videoposnetek z YouTuba, v katerem nastopa obraz Robina Williamsa. Video deluje povsem pristno, a je bil v celoti ustvarjen z orodjem Sora. Podatki dodatno potrjujejo razsežnost problema. Leta 2023 je bilo na spletu približno 500.000 deepfakov, do leta 2025 pa se je ta številka povečala na okoli 8 milijonov. To pomeni skoraj 900-odstotno letno rast.
Po mnenju Siweija Lyua k temu prispevajo trije glavni dejavniki:
-
Hiter tehnološki napredek pri generiranju videa. Novi modeli omogočajo časovno skladnost in stabilne obraze brez očitnih napak. Tudi če je video ponarejen, deluje prepričljivo, vzbuja čustva in hitro pritegne pozornost. Prav zato se deepfaki vse lažje zlijejo z resničnimi vsebinami.
-
Kloniranje glasu, ki je že preseglo mejo zaznavne razlike. Iz kratkega zvočnega vzorca je mogoče ustvariti izjemno realističen glas, kar se vse pogosteje izkorišča pri prevarah in drugih kaznivih dejanjih.
-
Dostopnost orodij. Tehnologija ni več omejena na strokovnjake. Danes lahko skoraj vsak brez posebnega znanja ustvari tehnično dovršen lažen video ali zvočni posnetek.
Letos naj bi se po avtorjevi oceni zgodil še naslednji prelom: deepfaki v realnem času. Sintetični avatarji in navidezni sogovorniki bodo sposobni sprotnega odzivanja, prilagajanja in sodelovanja v živih pogovorih.
Siwei Lyu ne zagovarja zaviranja razvoja umetne inteligence. Nasprotno, poudarja potrebo po skupni odgovornosti. To vključuje boljše nadzorne mehanizme, preverljive digitalne infrastrukture, napredna forenzična orodja in jasen skupni cilj: ohraniti zaupanje v informacije in zaščititi njihov pomen v javnem prostoru.
Kaj je deepfake?
Deepfake je ponarejena digitalna vsebina (video, zvok ali slika), ustvarjena z umetno inteligenco, ki posnema resnično osebo ali dogodek tako prepričljivo, da jo je težko ločiti od avtentične vsebine.