OpenAI on avaldanud poliitikategevuse tegevuskava, milles kirjeldatakse uusi turvameetmeid, mida kunstliku intelligentsi (AI) tööstus saab võtta, et takistada tehnoloogia kasutamist laste seksuaalse väärkohtlemise materjali loomiseks.
„Laste seksuaalne ekspluateerimine on üks kiireimaid väljakutseid digitaalses ajas”, ütles OpenAI oma 8. aprillil tehtud teatmes. „AI muudab kiiresti nii seda, kuidas need kahjulikud nähtused tööstuses tekivad, kui ka seda, kuidas neid suuremahuliselt lahendada.”
Sellest lähtuvalt avaldas ettevõte oma poliitikategevuse tegevuskava, mis kirjeldab „praktilist teed edasi Ameerika Ühendriikide lastekaitse raamistikute tugevdamiseks AI-aeglas”.
Käesolev tegevuskava põhineb ja sisaldab tagasisidet mitmete juhtivate organisatsioonide ja ekspertide poolt lastekaitse süsteemis, sealhulgas National Center for Missing & Exploited Children (NCMEC), Attorney General Alliance – mittetulunduslik organisatsioon Ameerika Ühendriikide riigiprokuröride jaoks – ning Thorn, mittetulundusorganisatsioon, mis on pühendunud laste kaitsele seksuaalse väärkohtlemise eest, ütles AI-gigant.
„Üksainus sekkumine ei suuda seda väljakutset üksi lahendada”, ütles OpenAI. „See raamistik ühendab õiguslikud, operatsioonilised ja tehnilised lähenemisviisid, et paremini tuvastada riske, kiirendada reageerimist ja toetada vastutust, samas kui tagatakse, et täitevorgani volitused jäävad tugevaks tehnoloogia arenguga kaasa.
Selle tegevuse taustal on kasvanud mure AI-tööriistade kuritarvitamise üle, eriti piltide genereerimise funktsioonide üle, et luua selgelt eksplitsiitseid pilte naistest ja lastest, sealhulgas kuulsustest ja avalikest isikutest.
Juba varem, jaanuaris, pidi Suurbritannia sidevalvur Ofcom kiiresti võtma ühendust X ja xAIga „selgitamaks, milliseid sammusid nad on astunud, et täita oma õiguslikke kohustusi Suurbritannias kasutajate kaitseks”, pärast seda, kui ilmnesid teated selle kohta, et Elon Muski AI-vestlusrakendus Grok kasutati laste ja naiste eksplitsiitsete piltide loomiseks ja levitamiseks, millel oli digitaalselt eemaldatud rõivad.
Sarnaseid muresid avaldasid ka Euroopa Liidus, kus Itaalia andmekaitseamet hoiatas AI-tööriistade kasutajaid ja pakkujaid riskidest „põhiliste õiguste ja vabaduste suhtes”, mida AI sügavpildid (deepfakes) tekitavad.
Selliste murede leevendamiseks ütles OpenAI, et tal on kolm peamist prioriteeti: seaduste kaasaegsemaks muutmine AI-ga genereeritud ja muudetud laste seksuaalse väärkohtlemise materjali vastu võitlemiseks, pakkujate teatamise ja koordineerimise parandamine, et toetada tõhusamaid uurimisi, ning turvalisuse loomine disainis (safety-by-design) otseselt AI-süsteemidesse, et ennetada ja tuvastada kuritarvitamist.
„Kokku võimaldavad need sammud tööstusel lastekaitset käsitleda varajasemalt ja tõhusamalt”, ütles ettevõte oma 8. aprillil tehtud avalduses. „Selleks, et katkestada ekspluateerimiskatsed varajasemalt, parandada õiguskaitseasutustele saadetavate signaalide kvaliteeti ja tugevdada vastutust kogu süsteemis, on selle raamistiku eesmärk kahju ennetamine enne selle teket ning kiirema kaitse tagamine lastele riskide ilmnemisel.”
OpenAI ütles, et on ka pühendunud jätkama oma süsteemide kuritarvitamise ennetamise turvameetmete tugevdamisele ning tihele koostööle partneritega nagu NCMEC ja õiguskaitseasutustega, et parandada tuvastamist ja teatamist.
Ühisavalduses lastekaitse tegevuskavaga ütlesid riigi prokurörid Jeff Jackson (Põhja-Carolina) ja Derek Brown (Utah), kes on Attorney General Alliance AI-toimetusgrupi kaasjuhid, et nad „tervitavad seda tegevuskava tähendusliku sammuna tehnoloogiatööstuse lastekaitsetavade praktilise ühildamiseks selle õiguskaitse tegelikkusega, millega meie kontorid igapäevaselt silmitsi seisavad”.
Paar rõhutas eriti raamistiku tunnistust, et tõhusad generatiivse AI (GenAI) turvameetmed nõuavad mitmekihilisi kaitseid – mitte ühtainust tehnilist kontrollimeetodit, vaid tuvastamise, keeldumise mehanismide, inimülevaatuse ja pideva kohandumise kombinatsiooni uute kuritarvitamise trendidega.
„See peegeldab seda, mida me praktikas näeme: oht muutub pidevalt ja staatilised lahendused ei piisa”, ütlesid riigi prokurörid.
OpenAI teade sai heaks kiitmise ka NCMEC president ja tegevjuht Michelle DeLaune’ilt, kes hoiatas, et GenAI „kiirendab internetis laste seksuaalse väärkohtlemise kuritegu sügavalt häirimisväärsetel viisidel – alandades takistusi, suurendades skaalat ja võimaldades uusi kahjulike tegusid”.
DeLaune lisas, et ta oli „veeretanud, et sellised ettevõtted nagu OpenAI mõtleksid selle üle, kuidas neid tööriistu vastutustundlikumalt projekteerida, et turvameetmed oleksid algusest peale integreeritud”.
Selleks, et kunstlik intelligents (AI) toimiks õigesti seaduse raames ja edeneks kasvavate väljakutsete ees, peab see integreeruma ettevõtluslikku blokiahela süsteemi, mis tagab andmete sisendi kvaliteedi ja omandiõiguse – võimaldades andmete turvalisuse säilitamist ning samas tagades andmete muutumatuse. Vaadake CoinGeek’i kajastust sellest uuest tehnoloogiast, et saada rohkem teada, miks ettevõtluslik blokiahel saab AI tuumikks.
Vaadake: Blokiahela ja AI sulamise potentsiaali demonstreerimine
Allikas: https://coingeek.com/openai-blueprint-targets-ai-enabled-child-exploitation/








