Mračna strana EU regulative umjetne inteligencije: Stvaranje tehnološkog monopola pod krinkom zaštite

umjetna inteligencija
1 komentar

Objava “Prvog nacrta Kodeksa prakse za AI opće namjene” označava napor EU-a u stvaranju sveobuhvatnih regulatornih smjernica za AI modele opće namjene.

Razvoj ovog nacrta bio je rezultat suradnje, uključujući doprinos različitih sektora, uključujući industriju, akademsku zajednicu i civilno društvo. Inicijativu su vodile četiri specijalizirane Radne skupine, od kojih je svaka rješavala specifične aspekte AI upravljanja i ublažavanja rizika:

Radna skupina 1: Transparentnost i pravila vezana uz autorska prava
Radna skupina 2: Identifikacija i procjena rizika za sistemski rizik
Radna skupina 3: Tehničko ublažavanje rizika za sistemski rizik
Radna skupina 4: Upravljačko ublažavanje rizika za sistemski rizik
Nacrt je usklađen s postojećim zakonima poput Povelje o temeljnim pravima Europske unije. Uzima u obzir međunarodne pristupe, teži proporcionalnosti prema rizicima i nastoji biti otporan na budućnost razmatrajući brze tehnološke promjene.

Ključni ciljevi navedeni u nacrtu uključuju:

  • Pojašnjavanje metoda usklađenosti za pružatelje AI modela opće namjene
  • Olakšavanje razumijevanja kroz cijeli AI lanac vrijednosti, osiguravajući besprijekornu integraciju AI modela u nizvodne proizvode
  • Osiguravanje usklađenosti s pravom Unije o autorskim pravima, posebno u vezi s korištenjem materijala zaštićenih autorskim pravima za treniranje modela
  • Kontinuiranu procjenu i ublažavanje sistemskih rizika povezanih s AI modelima
  • Prepoznavanje i ublažavanje sistemskih rizika

Ključna značajka nacrta je njegova taksonomija sistemskih rizika, koja uključuje vrste, prirode i izvore takvih rizika. Dokument navodi različite prijetnje poput cyber napada, bioloških rizika, gubitka kontrole nad autonomnim AI modelima i dezinformacija velikih razmjera. Prepoznajući kontinuirano razvijajuću prirodu AI tehnologije, nacrt priznaje da će ova taksonomija trebati ažuriranja kako bi ostala relevantna.

Kako AI modeli sa sistemskim rizicima postaju sve češći, nacrt naglašava potrebu za robusnim okvirima sigurnosti i zaštite (SSF). Predlaže hijerarhiju mjera, podmjera i ključnih pokazatelja uspješnosti (KPI) kako bi se osigurala odgovarajuća identifikacija, analiza i ublažavanje rizika tijekom životnog ciklusa modela.

Nacrt predlaže da pružatelji uspostave procese za identificiranje i prijavljivanje ozbiljnih incidenata povezanih s njihovim AI modelima, nudeći detaljne procjene i ispravke prema potrebi. Također potiče suradnju s neovisnim stručnjacima za procjenu rizika, posebno za modele koji predstavljaju značajne sistemske rizike.

Proaktivni stav prema AI regulatornim smjernicama

EU Zakon o umjetnoj inteligenciji, koji je stupio na snagu 1. kolovoza 2024., nalaže da konačna verzija ovog Kodeksa bude spremna do 1. svibnja 2025. Ova inicijativa naglašava proaktivni stav EU-a prema regulaciji AI-ja, naglašavajući potrebu za sigurnošću, transparentnošću i odgovornošću AI-ja.

Dok se nacrt nastavlja razvijati, radne skupine pozivaju dionike da aktivno sudjeluju u doradi dokumenta. Njihov suradnički doprinos oblikovat će regulatorni okvir usmjeren na zaštitu inovacija uz istovremenu zaštitu društva od potencijalnih zamki AI tehnologije.

Iako je još uvijek u obliku nacrta, EU-ov Kodeks prakse za AI modele opće namjene mogao bi postaviti mjerilo za odgovoran razvoj i implementaciju AI-ja na globalnoj razini. Rješavanjem ključnih pitanja poput transparentnosti, upravljanja rizicima i usklađenosti s autorskim pravima, Kodeks nastoji stvoriti regulatorno okruženje koje potiče inovacije, podupire temeljna prava i osigurava visoku razinu zaštite potrošača.

Tehnologija samo za elitu

Iako se predloženi EU regulatorni okvir za modele umjetne inteligencije predstavlja kao zaštita građana, važno je kritički sagledati njegove potencijalne negativne posljedice.

Stvaranje složenog regulatornog sustava koji zahtijeva značajne resurse za usklađivanje moglo bi dovesti do neželjene centralizacije kontrole nad AI tehnologijom. Mali inovatori i startupovi mogli bi biti istisnuti s tržišta zbog visokih troškova usklađivanja, dok će samo velike korporacije i institucije moći zadovoljiti sve regulatorne zahtjeve.

Pretjerano kompleksni zahtjevi za procjenu rizika mogu usporiti razvoj korisnih AI aplikacija, a definicija “sistemskih rizika” mogla bi postati izgovor za prekomjernu kontrolu ili čak cenzuru. Postoji realna opasnost da će ovakva regulativa stvoriti digitalni jaz između “ovlaštenih” i “neovlaštenih” korisnika, pretvarajući umjetnu inteligenciju u privilegij elite umjesto alata za opće dobro.

Umjesto stvaranja složenog regulatornog okvira koji favorizira velike igrače, EU bi se trebao fokusirati na osnovne sigurnosne standarde, poticati otvorene AI modele i omogućiti široku dostupnost AI alata uz odgovarajuću edukaciju.

Samo tako možemo osigurati da umjetna inteligencija istinski služi napretku društva u cjelini, a ne samo odabranima u protivnom radi se o velikoj opasnosti za cjelokupno čovječanstvo.

AIeumanipulacijaregulacijaumjetna inteligencija
Pretplatiti se
Obavijesti o
1 Komentar
Najstariji
Najnoviji Najviše komentiran
Inline povratne informacije
Pogledaj sve komentare
2 sati prije

“Samo tako možemo osigurati da umjetna inteligencija istinski služi napretku društva u cjelini, a ne samo odabranima u protivnom radi se o velikoj opasnosti za cjelokupno čovječanstvo” Da bi se shvatila akcija mora se poznavati uzrok. Zašto se informatika razvila tako eksplozivno, zašto se recimo energetika nije tako razvijala? Mislite li da se energetika nije mogla brže razvijati? Zamislite da su sretstva uložena u razvoj informatike uložena u nove materijale za energetiku… Od pojave prvih PCjeva ulaganja u IT industriju su postala enormna. Nisu nama računari bili baš toliko neophodni, imalo je mnogo drugih, bitnijih stvari koje su nam bile potrebne ali su nam stvorili želju koja je vremenom postala potreba i danas deo svakodnevnog života bez koga mnogi ne bi mogli normalno da funkcionišu – ne samo kao alat već i kao vrsta droge. Da bi to moglo da se postigne, računari su morali da budu sve boljih performansi,… Čitaj više »

© 2024 – Portal Logično

POVEZANE VIJESTI