Лидерът за доверие и безопасност на OpenAI напуска компанията

Ръководителят на OpenAI за доверие и безопасност, Дейв Уилнър, напусна позицията, както беше обявено Уилнър остава в „консултантска роля“, но помоли последователите на Linkedin да „посегнат“ за подобни възможности. Бившият ръководител на проекта OpenAI заявява, че преместването идва след решение да прекарва повече време със семейството си. Да, това винаги казват, но Уилнър го следва с действителни подробности.

„В месеците след пускането на ChatGPT открих, че ми е все по-трудно да спазя моята част от сделката“, пише той. „OpenAI преминава през фаза с висок интензитет в своето развитие – както и нашите деца. Всеки с малки деца и супер интензивна работа може да се свърже с това напрежение.“

Той продължава да казва, че се „гордее с всичко“, което компанията е постигнала по време на неговия мандат и отбеляза, че това е „една от най-готините и интересни работни места“ в света.

Разбира се, този преход идва след някои правни пречки пред OpenAI и неговия характерен продукт, ChatGPT. Федералната търговска комисия в компанията поради опасения, че тя нарушава законите за защита на потребителите и участва в „нечестни или измамни“ практики, които биха могли да навредят на поверителността и сигурността на обществото. Разследването наистина включва грешка, която изтече лични данни на потребителите, което със сигурност изглежда попада в обхвата на доверието и безопасността.

Уилнър казва, че решението му всъщност е било „доста лесен избор, макар и не такъв, който хората в моето положение често правят толкова изрично публично“. Той също така заявява, че се надява решението му да помогне за нормализиране на по-отворени дискусии за баланса работа/личен живот. 

Има нарастваща загриженост за безопасността на AI през последните месеци и OpenAI е една от компаниите, които разработват своите продукти по заповед на президента Байдън и Белия дом. Те включват разрешаване на достъп на независими експерти до кода, маркиране на рискове за обществото като пристрастия, споделяне на информация за безопасност с правителството и поставяне на воден знак на аудио и визуално съдържание, за да уведомят хората, че то е генерирано от AI.

Всички продукти, препоръчани от Engadget, са избрани от нашия редакционен екип, независимо от нашата компания майка. Някои от нашите истории включват партньорски връзки. Ако купите нещо чрез една от тези връзки, може да спечелим партньорска комисионна. Всички цени са верни към момента на публикуване.

източник