Lider zaufania i bezpieczeństwa OpenAI opuszcza firmę

Lider ds. zaufania i bezpieczeństwa OpenAI, Dave Willner, opuścił to stanowisko zgodnie z zapowiedzią Willner nadal pełni „rolę doradczą”, ale poprosił obserwujących Linkedin, aby „dotarli” do powiązanych możliwości. Były kierownik projektu OpenAI twierdzi, że przeprowadzka wynika z decyzji o spędzeniu większej ilości czasu z rodziną. Tak, tak zawsze mówią, ale Willner podaje rzeczywiste szczegóły.

„W miesiącach następujących po uruchomieniu ChatGPT coraz trudniej było mi dotrzymać swojej części umowy” — pisze. „OpenAI przechodzi bardzo intensywną fazę rozwoju — podobnie jak nasze dzieci. Każdy, kto ma małe dzieci i bardzo intensywną pracę, może odnieść się do tego napięcia”.

Nadal mówi, że jest „dumny ze wszystkiego”, co firma osiągnęła podczas jego kadencji i zauważył, że była to „jedna z najfajniejszych i najciekawszych prac” na świecie.

Oczywiście przejście to następuje po piętach pewnych przeszkód prawnych stojących przed OpenAI i jego flagowym produktem, ChatGPT. FTC w firmie z powodu obaw, że narusza ona przepisy dotyczące ochrony konsumentów i angażuje się w „nieuczciwe lub oszukańcze” praktyki, które mogą zaszkodzić prywatności i bezpieczeństwu publicznemu. Dochodzenie dotyczy błędu, który spowodował wyciek prywatnych danych użytkowników, co z pewnością wydaje się wchodzić w zakres zaufania i bezpieczeństwa.

Willner mówi, że jego decyzja była w rzeczywistości „dość łatwym wyborem, choć nie takim, którego ludzie na moim stanowisku często dokonują tak otwarcie publicznie”. Stwierdza również, że ma nadzieję, że jego decyzja pomoże znormalizować bardziej otwarte dyskusje na temat równowagi między życiem zawodowym a prywatnym. 

W ostatnich miesiącach rosną obawy dotyczące bezpieczeństwa sztucznej inteligencji, a OpenAI jest jedną z firm, które na swoich produktach na polecenie prezydenta Bidena i Białego Domu. Obejmują one umożliwienie niezależnym ekspertom dostępu do kodu, oznaczanie zagrożeń dla społeczeństwa, takich jak uprzedzenia, dzielenie się informacjami dotyczącymi bezpieczeństwa z rządem oraz umieszczanie znaku wodnego na treściach audio i wizualnych, aby ludzie wiedzieli, że są generowane przez sztuczną inteligencję.

Wszystkie produkty polecane przez Engadget są wybierane przez naszą redakcję, niezależną od naszej macierzystej firmy. Niektóre z naszych historii zawierają linki afiliacyjne. Jeśli kupisz coś przez jeden z tych linków, możemy otrzymać prowizję partnerską. Wszystkie ceny są aktualne w momencie publikacji.

Źródło