Pemimpin kepercayaan dan keamanan OpenAI meninggalkan perusahaan

Pemimpin kepercayaan dan keamanan OpenAI, Dave Willner, telah meninggalkan posisinya, seperti yang diumumkan Willner tetap dalam "peran penasihat" tetapi telah meminta pengikut Linkedin untuk "menjangkau" peluang terkait. Mantan pimpinan proyek OpenAI menyatakan bahwa langkah tersebut dilakukan setelah keputusan untuk menghabiskan lebih banyak waktu dengan keluarganya. Ya, itu yang selalu mereka katakan, tapi Willner menindaklanjutinya dengan detail yang sebenarnya.

“Dalam beberapa bulan setelah peluncuran ChatGPT, saya merasa semakin sulit untuk memenuhi tawaran saya,” tulisnya. “OpenAI sedang melalui fase intensitas tinggi dalam pengembangannya — begitu juga anak-anak kita. Siapa pun yang memiliki anak kecil dan pekerjaan yang sangat intens dapat merasakan ketegangan itu.

Dia terus mengatakan bahwa dia "bangga dengan segalanya" yang dicapai perusahaan selama masa jabatannya dan mencatat bahwa itu adalah "salah satu pekerjaan paling keren dan paling menarik" di dunia.

Tentu saja, transisi ini menjadi panas karena beberapa rintangan hukum yang dihadapi OpenAI dan produk khasnya, ChatGPT. FTC masuk ke perusahaan karena kekhawatiran bahwa itu melanggar undang-undang perlindungan konsumen dan terlibat dalam praktik "tidak adil atau menipu" yang dapat merusak privasi dan keamanan publik. Investigasi memang melibatkan bug yang membocorkan data pribadi pengguna, yang tampaknya berada di bawah lingkup kepercayaan dan keamanan.

Willner mengatakan keputusannya sebenarnya adalah "pilihan yang cukup mudah untuk dibuat, meskipun bukan keputusan yang sering dibuat oleh orang-orang di posisi saya secara eksplisit di depan umum". Dia juga menyatakan bahwa dia berharap keputusannya akan membantu menormalkan diskusi yang lebih terbuka tentang keseimbangan kerja/hidup. 

Ada kekhawatiran yang berkembang atas keamanan AI dalam beberapa bulan terakhir dan OpenAI adalah salah satu perusahaan yang produknya atas perintah Presiden Biden dan Gedung Putih. Ini termasuk mengizinkan pakar independen mengakses kode, menandai risiko bagi masyarakat seperti bias, berbagi informasi keselamatan dengan pemerintah, dan menandai konten audio dan visual dengan air untuk memberi tahu orang bahwa itu dihasilkan oleh AI.

Semua produk yang direkomendasikan oleh Engadget dipilih oleh tim editorial kami, terlepas dari perusahaan induk kami. Beberapa cerita kami menyertakan tautan afiliasi. Jika Anda membeli sesuatu melalui salah satu tautan ini, kami dapat memperoleh komisi afiliasi. Semua harga adalah benar pada saat penerbitan.

sumber