Revija stop
Inovativno

OpenAI uvaja obvezno identifikacijo za dostop do naprednih funkcij ChatGPT

14. 4. 2025, 22.46
Posodobljeno: 14. 4. 2025, 22.57
Deli članek:

Za uporabo najzmogljivejših modelov umetne inteligence bo odslej potreben osebni dokument.

open ai / KŠ
Kam nas bo pripeljal razvoj umetne inteligence?!

OpenAI, tehnološki velikan za platformo ChatGPT, uvaja novo varnostno politiko: organizacije, ki želijo dostopati do naprednih funkcij in modelov umetne inteligence, bodo morale opraviti obvezno preverjanje identitete. Postopek, ki je bil predstavljen pretekli teden na uradni spletni strani podjetja, je del širših prizadevanj za povečanje varnosti in preprečevanje zlorab.

Preverjene organizacije – nov standard dostopanja

Sistem, imenovan »Verified Organization« (Preverjena organizacija), je zasnovan kot nov način za nadzorovan dostop do najbolj naprednih zmogljivosti na platformi OpenAI. Ključni element tega postopka je predložitev veljavnega osebnega dokumenta, izdanega v državi, ki je podprta s strani OpenAI API.

open ai
Kako vam lahko pomagam danes?

Vsak dokument bo možno uporabiti za preverjanje le ene organizacije na vsakih 90 dni, s čimer OpenAI uvaja dodatno plast nadzora in varnosti. Poleg tega vse organizacije ne bodo samodejno izpolnjevale pogojev za preverjanje – postopek bo selektiven.
V podjetju poudarjajo, da želijo s tem sistemom povečati zanesljivost in varnost svoje tehnologije:

»V OpenAI jemljemo zelo resno odgovornost, da zagotovimo široko dostopnost umetne inteligence, obenem pa skrbimo za njeno varno uporabo. Na žalost manjša skupina razvijalcev namerno uporablja naše API-je v nasprotju s pogoji uporabe. Postopek preverjanja naj bi zmanjšal tveganje zlorab, hkrati pa ohranil dostop za legitimne uporabnike,« so zapisali na svoji spletni strani.

Ukrep z varnostnim in geopolitičnim ozadjem?

Nova zahteva po identifikaciji ni presenetljiva, če jo umestimo v širši kontekst povečane skrbi glede zlorab umetne inteligence. OpenAI je že v preteklosti opozarjal na primere zlonamerne uporabe svojih modelov, vključno s skupinami, ki naj bi bile povezane s Severno Korejo.
Obenem pa ukrep lahko služi tudi zaščiti pred krajo intelektualne lastnine. Kot poroča Bloomberg, je konec leta 2024 obstajal sum, da je raziskovalna skupina, povezana s kitajskim AI laboratorijem DeepSeek, preko API-ja pridobila obsežne količine podatkov, domnevno za treniranje lastnih modelov. Če se to izkaže za resnično, bi šlo za resno kršitev pogojev uporabe.
Ukrep tako sovpada z že obstoječimi omejitvami: OpenAI je poleti 2023 že blokiral dostop do svojih storitev na Kitajskem, kar dodatno potrjuje prizadevanja podjetja za nadzor nad uporabo svojih tehnologij izven ZDA.

Umetna inteligenca pod drobnogledom – prvi resni koraki k regulaciji

Z uvedbo sistema »Verified Organization« OpenAI postavlja enega prvih konkretnih standardov za preverjanje identitete na področju umetne inteligence. Ta poteza odpira vrata širši razpravi o regulaciji AI tehnologij in pomeni pomemben signal za celotno industrijo.
V času, ko se geopolitične napetosti okrog umetne inteligence zaostrujejo, postaja jasno, da bo prihodnji razvoj teh tehnologij zahteval več varnosti, več preglednosti in več odgovornosti – ne le od razvijalcev, temveč tudi od njihovih uporabnikov.

Revija Stop