AI halucinacije krenule po zlu kada je Aljaska koristila lažne statistike u politici

AI halucinacije
29 komentara

Kombinacija umjetne inteligencije i kreiranja politika ponekad može imati nepredviđene posljedice, što se nedavno moglo vidjeti na Aljasci.

U neobičnom spletu događaja, zakonodavci Aljaske navodno su koristili netočne citate generirane umjetnom inteligencijom kako bi opravdali predloženu politiku zabrane mobilnih telefona u školama. Kako izvještava The Alaska Beacon, Odjel za obrazovanje i rani razvoj Aljaske (DEED) predstavio je nacrt politike koji je sadržavao reference na akademske studije koje jednostavno nisu postojale.

Situacija je nastala kada je povjerenica za obrazovanje Aljaske, Deena Bishop, koristila generativnu umjetnu inteligenciju za izradu politike o mobilnim telefonima. Dokument koji je proizvela UI uključivao je navodne znanstvene reference koje nisu bile ni provjerene ni točne, a dokument nije otkrivao korištenje UI u svojoj pripremi. Neki od sadržaja generiranih UI-jem došli su do Državnog odbora za obrazovanje i rani razvoj Aljaske prije nego što su mogli biti pregledani, potencijalno utječući na rasprave odbora.

Povjerenica Bishop kasnije je tvrdila da je UI korištena samo za “stvaranje citata” za početni nacrt i ustvrdila da je ispravila pogreške prije sastanka slanjem ažuriranih citata članovima odbora. Međutim, UI “halucinacije” – izmišljene informacije generirane kada UI pokušava stvoriti uvjerljiv ali neprovjereni sadržaj – još uvijek su bile prisutne u konačnom dokumentu o kojem je odbor glasao.

Konačna rezolucija, objavljena na DEED-ovoj web stranici, nalaže odjelu uspostavljanje modela politike za ograničenja mobilnih telefona u školama. Nažalost, dokument je uključivao šest citata, od kojih su četiri naizgled bila iz uglednih znanstvenih časopisa. Međutim, reference su bile potpuno izmišljene, s URL-ovima koji su vodili na nepovezani sadržaj. Incident pokazuje rizike korištenja podataka generiranih UI-jem bez odgovarajuće ljudske provjere, posebno pri donošenju političkih odluka.

Slučaj Aljaske nije jedinstven. UI halucinacije sve su češće u različitim profesionalnim sektorima. Na primjer, neki pravni stručnjaci suočili su se s posljedicama korištenja izmišljenih sudskih citata generiranih UI-jem na sudu. Slično tome, akademski radovi stvoreni pomoću UI-ja uključivali su iskrivljene podatke i lažne izvore, predstavljajući ozbiljne probleme vjerodostojnosti. Kada se ne kontroliraju, generativni UI algoritmi, koji su namijenjeni proizvodnji sadržaja na temelju obrazaca umjesto činjenične točnosti, mogu lako proizvesti obmanjujuće citate.

Oslanjanje na podatke generirane UI-jem u kreiranju politika, posebno u obrazovanju, nosi značajne rizike. Kada se politike razvijaju na temelju izmišljenih informacija, mogu pogrešno rasporediti resurse i potencijalno naštetiti učenicima. Na primjer, politika ograničavanja upotrebe mobilnih telefona temeljena na izmišljenim podacima može skrenuti pozornost s učinkovitijih intervencija temeljenih na dokazima koje bi stvarno mogle koristiti učenicima.

Nadalje, korištenje neprovjerenih UI podataka može narušiti povjerenje javnosti i u proces kreiranja politika i u samu UI tehnologiju. Takvi incidenti naglašavaju važnost provjere činjenica, transparentnosti i opreza pri korištenju UI-ja u osjetljivim područjima donošenja odluka, posebno u obrazovanju, gdje utjecaj na učenike može biti dubok.

Dužnosnici Aljaske pokušali su umanjiti situaciju, nazivajući izmišljene citate “privremenim oznakama” namijenjenim kasnijoj korekciji. Međutim, dokument s “privremenim oznakama” još uvijek je predstavljen odboru i korišten kao osnova za glasanje, naglašavajući potrebu za strogim nadzorom pri korištenju UI-ja.

AIAljaskaHalucinacije
Pretplatiti se
Obavijesti o
29 Komentari
Najstariji
Najnoviji Najviše komentiran
Inline povratne informacije
Pogledaj sve komentare
Koja
1 dan prije

🤔🤔. .. mi na Balkanu možemo biti sretni, AI ovde neće nikada zaživeti jer je sve duboko u lažima, da! Zamislite ukucamo neke SVOJE pojmove i AI se zaprepasti i odma’ salva iz svih artiljerijskih oruđa raspali po komšiji… avioni 4+ genearacije sami poleću, rokaju odma

tihobl
1 dan prije

Pa bilo bi cudo da su lazljivi anglosaksoni napravili AI koja govori istinu.

Max
1 dan prije

Vrlo opasno.

Subaru avatar
1 dan prije

Tek će stoka ljudska upoznati demijurga binarnog koliko je zao…..

1 dan prije

Hehehe… AI “halicinira” kad ustanovi da su mobilni telefoni štetni za decu? Naravno da će da falsifikuje izvore kad ne može da dođe do materijala koji odražava pravo stanje… jer ga kriju. I onda kažu “AI opasna po čovečanstvo”! 🙂 Nedavno sam eksperimentisao stavljajući AI pred vrlo složene filozofske koncepte kao što su četvrta dimenzija, teoretska eksplozija crne rupe, uticaj gravitacije na svetlost (da li je “privlači” ili joj “deformiše prostor”) i ispostavilo se da je kvalitetniji “sagovornik” nego ogromna većina ljudi – čak inženjera srodnih oblasti!?! Nije nikakvo čudo što predstavlja teorije, iznosi podatke jer ima neverovatno veliku bazu informacija ali se i na klizavom terenu snalazi mnogo bolje nogo što sam očekivao – neočekivano dobro izvlači zaključke i pravi dobar izbor među teorijama koje još uvek nisu dokazane! Radio sam sa više AI botova, GPT4 i Gemini su se pokazali kao najbolji iako je Gemini bio bolji u… Čitaj više »

Aniki
1 dan prije

Neki imaju AI za novog proroka i mesiju. Vjeruju da priča samo istinu i nikako ne može pogriješiti. Takvi su najglupliji.

Lucija, prva
1 dan prije

“…izmišljene informacije generirane kada UI pokušava stvoriti uvjerljiv ali neprovjereni sadržaj ”

😳🧐
??? Molim? Pa tko uopće može tražiti takve stvari?

Ako nas UI jednog dana zatuče, moglo bi biti opravdano.

Povjerenicu Bishop zatvoriti i izlupati.
Ja ovdje vidim odgovornost čovjeka.
I to dva čovjeka; osim ove povjerenice, tu je još jedan:

“Kada se ne kontroliraju, generativni UI algoritmi, koji su namijenjeni
🛑>>proizvodnji sadržaja na temelju obrazaca umjesto činjenične točnosti, << mogu lako proizvesti obmanjujuće citate. 😱

Ma šta "kontroliraju"?
TAKVI ALGORITMI UOPĆE NE TREBAJU I NE SMIJU POSTOJATI !!!🤯

Мунгос
17 sati prije

Дуго сам се питао, који би то разлог био да се толико нападно намеће термин неке непостојеће „вештачке интелигенције“.
Ево, сада ми се показао један од разлога: „….povjerenica za obrazovanje Aljaske, Deena Bishop, koristila generativnu umjetnu inteligenciju za izradu politike o mobilnim telefonima“. Ето, вештачка интелигенција је на том месту смутила ЛАЖНЕ референце. Тако се нама приказује да се Deena Bishop није служила ЛАЖИМА, него се ЛАЖИМА служио програм који су Мудраци лукаво назвали „вештачка интелигенција“.
Тако се, видите, на велика врата поново почела употребљавати изрека из почетка развоја компјутеризације: Једна правница је на суду тада изјавила не трепнувши: „ Нисмо Ми погрешили, то је погрешио компјутер“. Судија је прихватио њено извњиење.

ako
15 sati prije

Nedavno sam koristio Cht gpt da mi napavi kratki tekst od 5 min o Parku Maksimir. Sva sreća da sam neke podatke znao od prije, jer je tekst imao barem tri lažne informacije, a kvaliteta teksta je bila očajna.

© 2024 – Portal Logično

POVEZANE VIJESTI