Der Vertrauens- und Sicherheitsvorsprung von OpenAI verlässt das Unternehmen

Der Vertrauens- und Sicherheitsleiter von OpenAI, Dave Willner, hat die Position wie angekündigt verlassen Willner bleibt weiterhin in einer „beratenden Funktion“, hat jedoch Linkedin-Follower gebeten, nach entsprechenden Möglichkeiten zu „kontaktieren“. Der ehemalige OpenAI-Projektleiter gibt an, dass der Umzug auf die Entscheidung zurückzuführen sei, mehr Zeit mit seiner Familie zu verbringen. Ja, das sagen sie immer, aber Willner bringt noch konkretere Details dazu.

„In den Monaten nach der Einführung von ChatGPT fiel es mir immer schwerer, meinen Teil der Abmachung einzuhalten“, schreibt er. „OpenAI durchläuft eine Phase mit hoher Intensität in seiner Entwicklung – und das gilt auch für unsere Kinder. Jeder mit kleinen Kindern und einem superintensiven Job kann diese Spannung nachvollziehen.“

Er sagt weiterhin, er sei „stolz auf alles“, was das Unternehmen während seiner Amtszeit erreicht habe, und betonte, dass es „einer der coolsten und interessantesten Jobs“ der Welt sei.

Natürlich folgt dieser Übergang auf einige rechtliche Hürden, mit denen OpenAI und sein Signaturprodukt ChatGPT konfrontiert sind. Die FTC hat sich mit dem Unternehmen befasst, weil sie befürchtet, dass das Unternehmen gegen Verbraucherschutzgesetze verstößt und sich an „unfairen oder irreführenden“ Praktiken beteiligt, die die Privatsphäre und Sicherheit der Öffentlichkeit beeinträchtigen könnten. Bei der Untersuchung geht es tatsächlich um einen Fehler, der dazu geführt hat, dass private Daten von Benutzern verloren gegangen sind, was sicherlich in den Bereich von Vertrauen und Sicherheit zu fallen scheint.

Willner sagt, seine Entscheidung sei tatsächlich „ziemlich einfach zu treffen gewesen, wenn auch nicht eine, die Leute in meiner Position oft so explizit in der Öffentlichkeit treffen.“ Er hofft außerdem, dass seine Entscheidung dazu beitragen wird, offenere Diskussionen über die Vereinbarkeit von Beruf und Privatleben zu normalisieren. 

In den letzten Monaten gab es wachsende Bedenken hinsichtlich der Sicherheit von KI und OpenAI ist eines der Unternehmen, das seine Produkte auf Geheiß von Präsident Biden und dem Weißen Haus entwickelt. Dazu gehört, unabhängigen Experten Zugriff auf den Code zu gewähren, Risiken für die Gesellschaft wie Voreingenommenheit zu kennzeichnen, Sicherheitsinformationen mit der Regierung zu teilen und Audio- und Videoinhalte mit Wasserzeichen zu versehen, um die Menschen darüber zu informieren, dass sie von KI generiert wurden.

Alle von Engadget empfohlenen Produkte werden von unserem Redaktionsteam unabhängig von unserer Muttergesellschaft ausgewählt. Einige unserer Geschichten enthalten Affiliate-Links. Wenn Sie etwas über einen dieser Links kaufen, erhalten wir möglicherweise eine Affiliate-Provision. Alle Preise sind zum Zeitpunkt der Veröffentlichung korrekt.

Quelle