Il responsabile della fiducia e della sicurezza di OpenAI sta lasciando l'azienda

Il responsabile della fiducia e della sicurezza di OpenAI, Dave Willner, ha lasciato la posizione, come annunciato Willner rimane in un "ruolo di consulenza" ma ha chiesto ai follower di Linkedin di "contattare" per opportunità correlate. L'ex responsabile del progetto OpenAI afferma che il trasferimento arriva dopo la decisione di trascorrere più tempo con la sua famiglia. Sì, è quello che dicono sempre, ma Willner lo segue con dettagli reali.

"Nei mesi successivi al lancio di ChatGPT, ho trovato sempre più difficile mantenere la mia parte dell'accordo", scrive. “OpenAI sta attraversando una fase ad alta intensità nel suo sviluppo, e così anche i nostri ragazzi. Chiunque abbia bambini piccoli e un lavoro super intenso può identificarsi con quella tensione.

Continua a dire di essere "orgoglioso di tutto ciò che l'azienda ha realizzato durante il suo mandato e ha notato che è stato "uno dei lavori più belli e interessanti" al mondo.

Naturalmente, questa transizione arriva sulla scia di alcuni ostacoli legali che devono affrontare OpenAI e il suo prodotto di punta, ChatGPT. La FTC è entrata nell'azienda per timore che stia violando le leggi sulla protezione dei consumatori e impegnandosi in pratiche "sleali o ingannevoli" che potrebbero danneggiare la privacy e la sicurezza del pubblico. L'indagine riguarda un bug che ha fatto trapelare i dati privati ​​degli utenti, che certamente sembra rientrare nell'ambito della fiducia e della sicurezza.

Willner dice che la sua decisione è stata in realtà una "scelta abbastanza facile da fare, anche se non quella che le persone nella mia posizione spesso fanno in modo così esplicito in pubblico". Afferma inoltre che spera che la sua decisione aiuti a normalizzare discussioni più aperte sull'equilibrio tra lavoro e vita privata. 

Negli ultimi mesi ci sono crescenti preoccupazioni sulla sicurezza dell'IA e OpenAI è una delle aziende che sui suoi prodotti per volere del presidente Biden e della Casa Bianca. Questi includono consentire a esperti indipendenti di accedere al codice, segnalare rischi per la società come pregiudizi, condividere informazioni sulla sicurezza con il governo e filigranare contenuti audio e visivi per far sapere alle persone che sono generati dall'intelligenza artificiale.

Tutti i prodotti consigliati da Engadget sono selezionati dalla nostra redazione, indipendente dalla nostra casa madre. Alcune delle nostre storie includono link di affiliazione. Se acquisti qualcosa tramite uno di questi link, potremmo guadagnare una commissione di affiliazione. Tutti i prezzi sono corretti al momento della pubblicazione.

Fonte