OpenAI nudi 555.000 dolara godišnje, ali posao nije lak

OpenAI je nedavno predstavio jedno od najneobičnijih radnih mjesta u svijetu umjetne inteligencije-poziciju zaduženu isključivo za upravljanje rizicima.

Riječ je o ulozi koja se bavi pitanjima kibernetičke sigurnosti, mentalnog zdravlja i mogućih zloupotreba sve snažnijih AI modela.

Tvrtka je objavila natječaj za poziciju pod nazivom Head of Preparedness, čiji je glavni zadatak prepoznavanje i ublažavanje opasnosti koje prate razvoj naprednih modela umjetne inteligencije. Osoba na toj funkciji trebala bi voditi tehnički dio tzv. „Preparedness“ okvira – sustava kojim se procjenjuju sposobnosti modela, analiziraju potencijalne prijetnje i uvode zaštitne mjere prije nego što nove verzije postanu dostupne javnosti.

Direktor OpenAI-ja Sam Altman oglasio se povodom natječaja na društvenoj mreži X, istaknuvši kako je riječ o izrazito zahtjevnom i stresnom poslu, uz napomenu da će se odabrani kandidat gotovo odmah naći „bačen u vatru“. Financijski uvjeti odražavaju težinu odgovornosti: godišnja plaća iznosi 555.000 dolara, uz dodatni equity, prenosi Poslovni dnevnik.

Razlog ovakvog fokusa leži u sve češćim upozorenjima o mogućim zloupotrebama AI-ja. Umjetna inteligencija se sve više povezuje s prijetnjama poput cyber napada, ali i s osjetljivim biološkim scenarijima, dok se cijela industrija još uvijek velikim dijelom oslanja na samoregulaciju. Prema pisanju Guardiana, osoba na ovoj poziciji bila bi izravno odgovorna za obranu od rizika koji obuhvaćaju mentalno zdravlje korisnika, kibernetičku sigurnost te potencijalnu zloupotrebu u području biologije.

Posebno osjetljivo pitanje u cijeloj priči je mentalno zdravlje. Guardian navodi da se OpenAI suočava s tužbama i ozbiljnim optužbama vezanima uz način na koji su pojedini korisnici koristili ChatGPT. Iz tvrtke poručuju kako rade na unapređenjima sustava kako bi on bolje prepoznavao znakove emocionalne krize te korisnike usmjeravao prema stvarnoj, izvanmrežnoj pomoći.

Ni sigurnosni aspekt ne ostaje po strani. Reuters je nedavno izvijestio da OpenAI upozorava kako bi nadolazeći modeli mogli predstavljati „visok“ cyber rizik. Procjene govore da se razvoj odvija vrlo brzo i da će se sposobnosti modela nastaviti intenzivno povećavati. Upravo zato uloga pripravnosti ima cilj prije same objave modela preciznije utvrditi što on sve može i gdje postoji prostor za zloupotrebu.

Sve u svemu, ovo nije tek još jedna pozicija u AI sektoru. Radi se o svojevrsnom sigurnosnom filtru između istraživačkog laboratorija i stvarnog svijeta. Otvaranjem ovakvog radnog mjesta OpenAI poručuje da želi ozbiljnije i sustavnije pristupiti procjeni rizika u trenutku kada umjetna inteligencija postaje sve moćnija, ali i da je opseg problema već sada toliko velik da je, kako je Altman unaprijed upozorio, jasno da posao neće biti nimalo ugodan.

Podijeli:

Facebook
Twitter
LinkedIn
WhatsApp
Pregled privatnosti

Ova web stranica koristi kolačiće tako da vam možemo pružiti najbolje moguće korisničko iskustvo. Podaci o kolačićima pohranjuju se u vašem pregledniku i obavljaju funkcije poput prepoznavanja kod povratka na našu web stranicu i pomaže našem timu da shvati koji su dijelovi web stranice vama najzanimljiviji i najkorisniji.