Încrederea și siguranța OpenAI părăsește compania

Conducătorul de încredere și siguranță al OpenAI, Dave Willner, a părăsit postul, așa cum a anunțat Willner rămâne într-un „rol de consiliere”, dar le-a cerut adepților Linkedin să „atingă” oportunități conexe. Fostul lider al proiectului OpenAI afirmă că mutarea vine după decizia de a petrece mai mult timp cu familia sa. Da, asta se spune întotdeauna, dar Willner continuă cu detalii reale.

„În lunile care au urmat lansării ChatGPT, mi s-a părut din ce în ce mai dificil să țin partea mea de târg”, scrie el. „OpenAI trece printr-o fază de mare intensitate în dezvoltarea sa – la fel și copiii noștri. Oricine are copii mici și un loc de muncă foarte intens se poate raporta la această tensiune.”

El continuă să spună că este „mândru de tot ce a realizat compania în timpul mandatului său și a remarcat că a fost „una dintre cele mai tari și mai interesante joburi” din lume.

Desigur, această tranziție vine în urma unor obstacole legale cu care se confruntă OpenAI și produsul său semnătură, ChatGPT. FTC a intrat în companie din cauza preocupărilor că încalcă legile privind protecția consumatorilor și se angajează în practici „nedrepte sau înșelătoare” care ar putea afecta confidențialitatea și securitatea publicului. Investigația implică o eroare care a scurs datele private ale utilizatorilor, care cu siguranță pare să țină de competența încrederii și siguranței.

Willner spune că decizia sa a fost de fapt „o alegere destul de ușor de făcut, deși nu una pe care oamenii din poziția mea o fac adesea atât de explicit în public”. El afirmă, de asemenea, că speră că decizia sa va contribui la normalizarea discuțiilor mai deschise despre echilibrul dintre viața profesională și viața privată. 

Există îngrijorări tot mai mari cu privire la siguranța inteligenței artificiale în ultimele luni, iar OpenAI este una dintre companiile care utilizează produsele sale la comanda președintelui Biden și a Casei Albe. Acestea includ permiterea accesului experților independenți la cod, semnalarea riscurilor pentru societate, cum ar fi părtinirile, partajarea informațiilor de siguranță cu guvernul și marcarea conținutului audio și vizual pentru a-i face pe oameni să știe că este generat de AI.

Toate produsele recomandate de Engadget sunt selectate de echipa noastră editorială, independent de compania noastră-mamă. Unele dintre poveștile noastre includ link-uri afiliate. Dacă cumpărați ceva prin unul dintre aceste link-uri, este posibil să câștigăm un comision de afiliat. Toate prețurile sunt corecte la momentul publicării.

Sursă