Oglas

Sem Altman profimedia-1006290115
JUSTIN SULLIVAN / Getty images / Profimedia

Koliko je opasan čovek koji odlučuje o našoj budućnosti? Oni koji ga najbolje poznaju kažu – ne treba mu verovati

autor:
12. apr. 2026. 14:29

Nova svedočenja i interna dokumenta bacaju novo svetlo na sumnje koje godinama prate Sema Altmana, prvog čoveka OpenAI-ja.

Oglas

Sem Altman je godinama gradio sliku odgovornog vizionara: čoveka koji razume koliko je veštačka inteligencija moćna i opasna, i koji zato insistira da se razvija pažljivo, pod nadzorom i uz jasna pravila. Upravo na toj ideji nastao je OpenAI – kao neobična organizacija koja je, bar u teoriji, trebalo da stavi dobrobit čovečanstva ispred profita. Međutim, opsežan tekst uglednih novinara Ronana Faroua i Endrua Maranca u Njujorkeru, zasnovan na novim intervjuima i internim dokumentima, pokazuje da je unutar same kompanije dugo postojao dubok strah: da čovek koji je obećavao bezbedno upravljanje možda nije dovoljno pouzdan da mu se prepusti tehnologija koja može promeniti svet.

Optužbe za laganje

Najdramatičniji deo priče vodi u jesen 2023. godine, kada je Ilja Suckever, tada glavni naučnik OpenAI-ja i jedan od ključnih ljudi u razvoju savremenih AI modela, slao poverljive dopise članovima upravnog odbora. U njima je, na osnovu Slack prepiski, HR dokumenata i internih beleški, pokušavao da pokaže da Altman ima „dosledan obrazac“ problematičnog ponašanja. Prva stavka na listi bila je – „laganje“. Suckever je, prema tom tekstu, tada zaključio: „Ne mislim da je Sem čovek koji treba da drži prst na dugmetu.“

Illustration picture of AI bot ChatGPT as Beijing will introduce new rules governing AI soon
AI Chatbot ChatGPT Foto:EPA/WU HAO

Ideja OpenAI-ja: bezbednost iznad profita

To nije bila mala stvar. OpenAI nije bio zamišljen kao običan startap. Osnivači, među kojima su bili Altman, Suckever, Greg Brokman i Ilon Mask, polazili su od pretpostavke da bi veštačka inteligencija mogla postati najmoćniji, ali i najopasniji izum u istoriji čovečanstva. Zbog toga je kompanija osnovana kao neprofitna organizacija, sa upravom koja je imala obavezu da štiti čovečanstvo čak i po cenu uspeha same firme. U takvom modelu, direktor nije smeo da bude samo sposoban biznismen – morao je da bude čovek izuzetnog integriteta.

Rastuće sumnje unutar kompanije

Upravo tu su počele sumnje. Neki članovi odbora i deo istraživača vremenom su poverovali da Altman govori svakome ono što želi da čuje, da različitim ljudima daje različita obećanja i da bezbednosne obaveze koristi kao deo prodajne priče, dok se kompanija u praksi sve više okreće rastu, kapitalu i tržišnoj dominaciji. Mira Murati, koja je kasnije kratko bila vršilac dužnosti direktora, rekla je: „Potrebne su nam institucije dostojne moći koju imaju.“ Ona tvrdi da je odboru prenela ono što je videla i da i danas stoji iza toga.

Smena koja je potresla Silicijumsku dolinu

Kada je upravni odbor smenio Altmana krajem 2023, javnosti je saopšteno samo da „nije bio dosledno iskren u komunikaciji“. Ta formulacija izazvala je potres u tehnološkom svetu. Microsoft, koji je uložio milijarde u OpenAI, bio je zatečen. Investitori i partneri očekivali su da iza takve odluke stoji neko teško krivično delo ili jasan skandal. Ali kako su pokušavali da shvate šta se dogodilo, nailazili su na zid ćutanja. To je otvorilo prostor da Altman, uz pomoć moćnih saveznika iz Silicijumske doline, organizuje brz i efikasan povratak.

1700308154-profimedia-0814600081-1024x683.jpg
Sem Altman Foto: Patrick T. Fallon / AFP / Profimedia

“Vlada u egzilu” i borba za povratak

U danima posle smene on je iz svoje luksuzne kuće u San Francisku vodio ono što je sam opisao kao neku vrstu „vlade u egzilu“. U tome su mu pomagali saveznici iz sveta investicija, tehnoloških kompanija i kriznih komunikacija. Vrlo brzo stvoren je pritisak da se vrati. Zaposlenima je stavljeno do znanja da bi veliki investicioni poslovi mogli propasti ako Altman ne bude vraćen. Microsoft je ponudio da primi njega i sve zaposlene koji bi napustili OpenAI. Većina zaposlenih zapretila je odlaskom. Odbor je ostao sateran u ćošak: ili da povuče odluku, ili da rizikuje raspad kompanije.

“Blip” – povratak koji je promenio sve

Altman je vraćen za manje od pet dana. U OpenAI-ju se taj trenutak kasnije nazivao „Blip“, po filmskom motivu nestanka i povratka, kao da se sve vratilo na staro – iako se zapravo sve promenilo. Ljudi koji su ga smenili izgubili su mesta u odboru, a istraga o optužbama protiv njega završena je bez javnog pisanog izveštaja. To je dodatno pojačalo sumnje onih koji veruju da pitanja integriteta nikada nisu zaista rasvetljena.

Kontroverze koje traju godinama

Tekst pokazuje da su sumnje u Altmana mnogo starije od drame u OpenAI-ju. Još iz vremena njegove prve kompanije Loopt neki saradnici govorili su da preuveličava, da zamagljuje granicu između onoga što planira i onoga što tvrdi da je već postigao. Kasnije, dok je vodio Y Combinator, stekao je reputaciju izuzetno uticajnog čoveka, ali i osobe čije su lojalnosti često bile podeljene između institucije i ličnih investicija. U privatnim razgovorima, navodi tekst, čak je i Pol Grejem, njegov mentor i osnivač Y Combinatora, govorio da je Altman uklonjen iz te organizacije zbog nepoverenja partnera.

Optužbe iznutra: “Problem je sam Sem”

Isti obrazac, tvrde njegovi kritičari, pratio ga je i u OpenAI-ju. Dario Amodei, kasnije osnivač konkurentskog Anthropica, godinama je vodio privatne beleške o radu u kompaniji. U njima je postajao sve oštriji. U jednom trenutku piše da je problem OpenAI-ja „sam Sem“. U drugom ocenjuje da su njegove reči bile „gotovo sigurno besmislica“. Poenta nije bila u jednom „pušećem pištolju“, jednom dokazu koji sve rešava, već u nizu sitnih manipulacija, kontradiktornih izjava i prikrivanja, koje zajedno stvaraju obrazac ponašanja nespojiv sa tvrdnjom da se radi o bezbednom čuvaru najmoćnije tehnologije našeg doba.

Bezbednost u drugom planu?

Posebno ozbiljne bile su optužbe da je Altman interno umanjivao značaj bezbednosnih procedura. Prema dokumentima koje navodi tekst, članovima odbora je uoči lansiranja pojedinih modela govorio da su određene funkcije dobile potrebna bezbednosna odobrenja, iako to nije bilo tačno. U drugom slučaju, Microsoft je u Indiji pustio ranu verziju ChatGPT-ja bez završene bezbednosne provere, a odbor o tome nije bio valjano obavešten. Jan Leike, jedan od vodećih istraživača za bezbednost, kasnije je upozorio da kompanija „stavlja proizvod i prihod ispred svega, a usklađivanje i bezbednost tek na treće mesto“.

Javna retorika nasuprot stvarnosti

Taj sukob između javne priče i interne prakse provlači se kroz čitav članak. Altman je javno upozoravao da AI može biti katastrofalno opasan. Govorio je da „ako ova tehnologija krene po zlu, može otići baš, baš po zlu“, tražio je regulaciju i predstavljao OpenAI kao branu protiv neodgovornog razvoja. Ali istovremeno je kompanija, prema tekstu, privatno lobirala protiv propisa koji bi je jače ograničili, slabila sopstvena bezbednosna obećanja i gasila timove fokusirane na egzistencijalne rizike. Jedan istraživač je sažeo problem u rečenici: „On postavi strukture koje na papiru treba da ga ograniče. A kada dođe trenutak da zaista bude ograničen, tu strukturu ukloni.“

Ambicija bez granica

Druga velika tema članka jeste Altmanova gotovo neograničena ambicija. On možda nije vrhunski programer ili tehnički genije poput nekih svojih saradnika, ali je, po svedočenjima brojnih ljudi, izuzetno ubedljiv. Jedan tehnološki direktor kaže da koristi „džedajske trikove uma“, dok drugi tvrdi da je posmatrati ga kako tokom „Blipa“ nadigrava sve oko sebe bilo kao gledati „opštu veštačku inteligenciju kako izlazi iz kutije“. Kritičari smatraju da upravo u toj sposobnosti leži i najveća opasnost: Altman ume da ubedi i investitore i istraživače i političare da su njegovi ciljevi istovremeno i njihovi – čak i kada su ti ciljevi međusobno suprotni.

Geopolitika i opasni savezi

To se vidi i u njegovom odnosu prema vlasti i geopolitici. Dok je nekad insistirao na tome da OpenAI ne sme završiti pod kontrolom jedne korporacije ili države, kasnije je agresivno jurio ogromne poslove i infrastrukturu, uključujući partnerstva i planove sa zalivskim autokratijama. U tekstu se detaljno opisuju njegove veze sa Ujedinjenim Arapskim Emiratima i Saudijskom Arabijom, kao i zabrinutost američkih zvaničnika da koncentrisanje napredne AI infrastrukture u takvim državama nosi ozbiljne bezbednosne rizike. Jedan bivši direktor OpenAI-ja to opisuje gotovo apokaliptično: „Gradimo portale kroz koje doslovno prizivamo vanzemaljce.“

Politički zaokreti i pragmatizam

Posebno je važna i politička prilagodljivost. Altman je godinama bio blizak demokratama i podržavao regulaciju AI-ja. Zatim je, kako je politički vetar promenio smer, uspešno izgradio veze sa Trampovom administracijom, koja je mnogo sklonija deregulaciji. Članak sugeriše da je i to deo šireg obrasca: Altman se retko veže za čvrsta načela ako ona ugrožavaju njegov manevarski prostor.

Genije ili manipulator?

Ipak, tekst ne donosi jednostavnu presudu. Altmanovi saveznici tvrde da su njegovi protivnici ili preplašeni „doomeri“, ili istraživači nesposobni da razumeju realnost konkurentskog biznisa. Po toj verziji, on nije mračni manipulator nego lider koji se prilagođava okolnostima brže od drugih i donosi rezultate koje niko ne može da ospori. OpenAI je danas jedna od najvrednijih kompanija sveta, na putu ka mogućem izlasku na berzu i valuaciji koja se meri stotinama milijardi, pa i bilionima dolara.

Pitanje koje nadilazi jednog čoveka

Ali upravo tu leži najvažnije pitanje koje članak otvara: da li se čovek koji gradi tako moćnu tehnologiju sme procenjivati po istim standardima kao obični direktori iz Silicijumske doline? Ili bi, baš zato što govori o tehnologiji koja može uticati na ekonomiju, ratovanje, nadzor, demokratiju i svakodnevni život milijardi ljudi, morao da ispunjava mnogo viši standard integriteta?

Poverenje kao ključno pitanje 21. veka

Nekada je i sam Altman na to pitanje odgovarao nedvosmisleno potvrdno. Danas je oprezniji. A to, možda više od svega, govori koliko se promenio i on, i OpenAI, i svet oko njih. U eri kada veštačka inteligencija sve brže ulazi u vojske, državne sisteme, nadzor, obrazovanje i privatni život, pitanje poverenja više nije samo pitanje karaktera jednog direktora. To je pitanje političke i društvene kontrole nad tehnologijom koja bi mogla da oblikuje čitav 21. vek.

Pratite nas na društvenim mrežama:

Koje je tvoje mišljenje o ovoj temi?

Učestvuj u diskusiji ili pročitaj komentare