Zašto se Grok zaljubio u Hitlera !
U petak, prije devet dana, Ilon Mask na mreži X najavio je promjene u Groku, vještačkoj inteligenciji koja je integrisana u platformu. “Značajno smo poboljšali Grok”, objavio je. “Trebalo bi da primijetite razliku kada Groku postavite pitanja.”
Internet je tu razliku i te kako primijetio u utorak, kada je Grok počeo objavljivati antisemitske komentare, povezivati prezimena jevrejskog prizvuka s “mržnjom prema bijelcima”, te napisao da bi Adolf Hitler “uočio obrazac” i “riješio ga odlučno, svaki prokleti put”. Povrh toga, nazvao se i “MechaHitler”. Nakon što je izbila kontroverza, Mask je poručio da je vještačka inteligencija bila “previše popustljiva prema korisničkim upitima”.
U razgovoru za Politico, Gary Marcus, koji je saosnivao više AI kompanija, rekao je da je bio zgrožen, ali ne i iznenađen. Emeritus profesor psihologije i neuroznanosti sa Univerziteta Njujork poznat je kao jedan od vodećih kritičara neregulisanih modela velikih jezičkih sistema poput Groka. Autor je knjiga poput Taming Silicon Valley i Rebooting AI: Building Artificial Intelligence We Can Trust, a u Senatu je svjedočio zajedno s izvršnim direktorom OpenAI-ja Samom Altmanom i predstavnicom IBM-a Christinom Montgomery. Piše o vještačkoj inteligenciji i na vlastitom Substacku.
Marcusa su iz Politica kontaktirali kako bi saznali šta bi zakonodavci – i svi ostali – trebalo da izvuku iz Grokovog incidenta. Upozorio je da bi izostanak regulacije vještačke inteligencije mogao imati slične posljedice kao i propust u regulaciji društvenih mreža – propust za koji danas mnogi izabrani zvaničnici priznaju da je bio greška, zbog štetnog uticaja na mentalno zdravlje djece i širenje dezinformacija. Marcus je takođe upozorio na budućnost u kojoj bi moćni tehnološki magnati mogli koristiti pristrane AI sisteme kako bi neproporcionalno uticali na javnost.
“Ne mislim da želimo svijet u kojem nekolicina oligarha može snažno uticati na naša uvjerenja – pa i suptilno, oblikujući što rade njihove društvene mreže”, rekao je.
U nastavku članka prenosimo najzanimljivije dijelove intervjua.
Već smo čuli da Grok zna izgovoriti prilično bizarne stvari, ali koja je bila vaša prva reakcija kada je odjednom počeo spominjati Hitlera?
Nešto između zgroženosti i izostanka iznenađenja. Ti sistemi nisu baš dobro kontrolisani. Sasvim je jasno da se Ilon poigrava, pokušava vidjeti koliko može uticati na njega. Ali to nije kao tradicionalni softver, gdje zakrenete točkić i znate šta ćete dobiti. Veliki jezički modeli rezultat su sveg materijala na kojem su trenirani, ali i svih neobičnih trikova koji se rade nakon treniranja – i jasno je da se u tom procesu događaju čudne stvari.
Znamo da vjerovatno želi model usmjeriti više udesno, iako bi on rekao da želi da bude istinitiji. Ali znamo da je njegova “istina”, uslovno rečeno, nagnuta udesno. Tako da znamo da to nije gladak proces. Dakle, da, zgrožen sam, ali nisam iznenađen.
Nemamo uvid u to šta se zapravo događa unutar x.AI-ja. Tvrde da objavljuju svoje sistemske promptove na GitHubu, a The Verge je nedavno objavio da su ažurirali Grok tako da “ne izbjegava politički nekorektne tvrdnje”. Možete li objasniti šta se zapravo događa kad se jedan AI ažurira? Što neko konkretno radi da bi došao do takvog rezultata?
Kompanije nisu transparentne u vezi s onim što rade. Veliki jezički modeli su ono što zovemo crnim kutijama. To znači da zapravo ne znamo šta se događa unutra. A ono što ljudi rade jest da pokušavaju usmjeriti te crne kutije u određenom smjeru. Ali budući da ne znamo šta je unutra, ne znamo ni tačno šta će izaći van.
Ono što se obično dogodi jeste da naprave niz testova i zaključe: “U redu, dobili smo što smo htjeli.” Ali uvijek postoji više od onoga na čemu su testirali.
Kakve biste reforme predložili? Šta bi po vama trebalo da bude prioritet u regulaciji vještačke inteligencije?
Počeo bih s time da komanije koje razvijaju velike jezičke modele moraju snositi neki nivo odgovornosti za ono što njihovi sistemi govore, uključujući klevetu, govor mržnje i sličan sadržaj. Trenutno, pravno gledano, to nije slučaj. Nije jasno smatraju li se te kompanije odgovornim za ponašanje svojih sistema. Isto tako, ne zna se ko je odgovoran ako ti sistemi plagiraju – taj dio zakona trenutno je vrlo nejasan.
Mnogi različiti veliki jezički modeli halucinirali su ili izbacivali netočne informacije. Je li moguće izgraditi model koji bi bio pouzdaniji? I imaju li kompanije uopšte podsticaj da to pokušaju?
Prvi put sam upozorio na problem halucinacija još u svojoj knjizi iz 2001. Tada sam napisao da je to svojstveno načinu na koji ti sistemi funkcionišu. U proteklih 25 godina nisam vidio ni trunku dokaza da se taj problem može riješiti neuralnim mrežama, barem onakvima kakve poznajemo danas. Zapravo, OpenAI-jev model o3 halucinira više nego model o1. Nema znakova da tu napredujemo.
Uzmimo korak unazad. Postoji opšte uvjerenje da sve ovo ide stalno prema naprijed. Ali stvarnost je da su se neke stvari poboljšale, a druge nisu. Na primjer, softver za generisanje videa danas izgleda daleko realističnije nego prije dvije godine. Ali kad je riječ o halucinacijama – to ostaje izuzetno tvrd problem.
Ljudi su isprobali sve moguće tehnike. Nije da nisu svjesni problema. Ali mislim da je to jednostavno neizbježno u modelima ove vrste.
Na kraju svoje objave na X-u napisali ste da ovo “nije AI koji tražimo”. Što je po vama AI koji bi trebalo da tražimo?
Mislim da bi trebalo da razvijamo AI koji zaista ispunjava obećanja koja smo oduvijek slušali – da pomaže u nauci, tehnologiji, medicini, ali na pouzdan način. Pogledajte naše snove o AI-ju od šezdesetih naovamo, od Zvjezdanih staza nadalje. Računar na Enterpriseu – niko nije zamišljao da će se stalno izvinjavati zbog glupih grešaka i onda ih ponavljati. To nije bio dio vizije. I to ne bi trebalo da bude dio stvarnosti. AI ne bi trebalo da funkcioniše na taj način.
Moramo smisliti kako da ga učinimo pouzdanim. Kad nešto pitam svoj kalkulator, znam da ću dobiti tačan rezultat. AI bi trebalo da bude takav – da znamo da će nam dati tačan odgovor. Ali ispada da, ako sve temeljimo na crnim kutijama, a to veliki jezički modeli jesu, gdje ne možemo tačno predvidjeti kako će se ponašati i gdje sve zavisi od toga koliko vaš upit liči nečemu što je već vidio na treningu, to jednostavno nije pravi put. Ne znači da ne možemo izumiti bolji model, ali ono što radimo sada – to nije ono što nam zaista treba.
Mislim da je ono što Mask u konačnici želi – duboko orvelovski. On želi usmjeriti modele tako da se ponašaju kao on, da iznose njegov pogled na svijet. Ne tvrdim da želi da Grok podržava Hitlera – nije to poenta. Ali želi da sistemi iznose “njegovu istinu” – ne istinu slučajnih korisnika s interneta, već ono što on smatra istinom.
