U upozorenju koje je prošlog petka izdalo indijsko Ministarstvo elektronike i informacijske tehnologije (MeitY), objavljeno je da svaka AI tehnologija koja je još u razvoju mora dobiti izričito dopuštenje vlade prije nego što se objavi u javnosti.
Programeri će također moći implementirati ove tehnologije tek nakon označavanja potencijalne pogreške ili nepouzdanosti generiranog izlaza.
Nadalje, dokument ocrtava planove za implementaciju mehanizma “skočnog prozora pristanka” za obavještavanje korisnika o potencijalnim nedostacima ili pogreškama koje proizvodi AI. Također nalaže označavanje deepfakeova trajnim jedinstvenim metapodacima ili drugim identifikatorima kako bi se spriječila zlouporaba.
Uz ove mjere, savjetodavno vijeće nalaže svim posrednicima ili platformama da osiguraju da bilo koji proizvod modela umjetne inteligencije – uključujući velike jezične modele (LLM) – ne dopušta pristranost, diskriminaciju ili prijeti integritetu izbornog procesa.
Neki predstavnici industrije kritizirali su indijske planove kao da idu predaleko:
India just kissed its future goodbye!
Every company deploying a GenAI model now requires approval from the Indian government!
That is, you now need approval for merely deploying a 7b open source model 🤯🤯
If you know the Indian government, you know this will a huge drag!… pic.twitter.com/PnHk8SE7TF
— Bindu Reddy (@bindureddy) March 3, 2024
Od programera se traži da se pridržavaju savjeta u roku od 15 dana od njegova izdavanja. Predloženo je da se nakon usklađenosti i podnošenja zahtjeva za dopuštenje za izdavanje proizvoda od programera može tražiti da izvedu demo za vladine dužnosnike ili se podvrgnu testiranju otpornosti na stres.
Iako savjetovanje trenutačno nije pravno obvezujuće, ono označava očekivanja vlade i nagovještava budući smjer regulacije u sektoru umjetne inteligencije.
“Danas to činimo kao savjetodavni zahtjev tražeći od vas (platforme umjetne inteligencije) da se pridržavate toga”, rekao je ministar informatike Rajeev Chandrasekhar. Dodao je da će taj stav na kraju biti ugrađen u zakon.
“Generativna umjetna inteligencija ili AI platforme dostupne na internetu morat će preuzeti punu odgovornost za ono što platforma radi i ne mogu pobjeći od odgovornosti govoreći da je njihova platforma na testiranju”, nastavio je Chandrasekhar, kako su izvijestili lokalni mediji.
Komedija: ovaj zakon će poštovati oni koji razvijaju AI u zakonskim okvirima a oni koji je razvijaju za kriminalne potrebe…
To je kao da se od mafijaša traži da prijavljuje svoje “poslovne aktivnosti”. Znači ovim će sprečiti samo malverzacije “niskog intenziteta” dok će glavne pretnje i dalje ostati. A njih ionako ne mogu eliminisati jer svako može da dođe do open AI i da ga dorađuje prema sopstvenim potrebama ako ima znanja za to – a u Indiji takvih stručnjaka ima poprilično.