Az OpenAI bizalmi és biztonsági vezető pozíciója elhagyja a vállalatot

Az OpenAI bizalmi és biztonsági vezetője, Dave Willner, ahogy bejelentették, távozott a posztról Willner továbbra is „tanácsadói szerepkörben” marad, de arra kérte a Linkedin követőit, hogy „keressenek fel” kapcsolódó lehetőségeket. Az OpenAI projekt korábbi vezetője kijelenti, hogy a lépés azután történt, hogy több időt tölt a családjával. Igen, mindig ezt mondják, de Willner ezt követi a tényleges részletekkel.

„A ChatGPT elindítását követő hónapokban egyre nehezebbnek találtam, hogy betartsam az alku végét” – írja. „Az OpenAI nagy intenzitású fejlődési szakaszon megy keresztül – és a gyerekeink is. Bárki, akinek kisgyermeke van, és rendkívül intenzív munkája van, kapcsolódhat ehhez a feszültséghez.”

Továbbra is azt mondja, hogy „mindenre büszke”, amit a cég elért hivatali ideje alatt, és megjegyezte, hogy ez volt „az egyik legmenőbb és legérdekesebb munka” a világon.

Természetesen ez az átállás az OpenAI és annak jellegzetes terméke, a ChatGPT előtt álló jogi akadályok nyomán. Az FTC aggodalmát fejezi ki a társasággal kapcsolatban, amiért az megsérti a fogyasztóvédelmi törvényeket, és „tisztességtelen vagy megtévesztő” gyakorlatokat folytat, amelyek sérthetik a nyilvánosság magánéletét és biztonságát. A vizsgálat egy olyan hibára vonatkozik, amely a felhasználók személyes adatait szivárogtatta ki, és ez minden bizonnyal a bizalom és biztonság hatókörébe tartozik.

Willner azt mondja, hogy a döntése valójában „elég könnyen meghozható volt, bár az én helyzetemben lévő emberek gyakran nem hoznak ilyen kifejezetten a nyilvánosság előtt”. Azt is kijelenti, hogy reméli, hogy döntése segít normalizálni a munka/magánélet egyensúlyáról szóló nyíltabb vitákat. 

Az elmúlt hónapokban egyre nagyobb aggodalomra ad okot a mesterséges intelligencia biztonsága, és az OpenAI egyike azon vállalatoknak, amelyek Biden elnök és a Fehér Ház parancsára gyártják termékeit. Ezek közé tartozik a független szakértők számára a kódhoz való hozzáférés engedélyezése, a társadalmat fenyegető kockázatok – például az elfogultságok – megjelölése, a biztonsági információk megosztása a kormánnyal, valamint a hang- és képi tartalmak vízjelekkel való ellátása, hogy az emberek tudják, hogy az AI által generált.

Az Engadget által ajánlott összes terméket szerkesztői csapatunk választja ki, anyavállalatunktól függetlenül. Néhány történetünk kapcsolt linkeket tartalmaz. Ha ezeken a linkeken keresztül vásárol valamit, társult jutalékot kaphatunk. Minden ár a megjelenés időpontjában érvényes.

forrás