Người dẫn đầu về độ tin cậy và an toàn của OpenAI đang rời bỏ công ty

Trưởng nhóm tin cậy và an toàn của OpenAI, Dave Willner, đã rời vị trí này, như đã thông báo Willner vẫn giữ “vai trò tư vấn” nhưng đã yêu cầu những người theo dõi Linkedin “tiếp cận” các cơ hội liên quan. Cựu lãnh đạo dự án OpenAI nói rằng động thái này được đưa ra sau khi ông quyết định dành nhiều thời gian hơn cho gia đình. Vâng, đó là những gì họ luôn nói, nhưng Willner theo dõi nó với các chi tiết thực tế.

Anh ấy viết: “Trong những tháng sau khi ra mắt ChatGPT, tôi ngày càng thấy khó khăn hơn trong việc theo kịp thỏa thuận cuối cùng của mình. “OpenAI đang trải qua giai đoạn phát triển với cường độ cao — và những đứa trẻ của chúng ta cũng vậy. Bất cứ ai có con nhỏ và một công việc cực kỳ căng thẳng đều có thể liên quan đến sự căng thẳng đó.”

Anh ấy tiếp tục nói rằng anh ấy “tự hào về mọi thứ” mà công ty đã đạt được trong nhiệm kỳ của mình và lưu ý rằng đó là “một trong những công việc tuyệt vời và thú vị nhất” trên thế giới.

Tất nhiên, quá trình chuyển đổi này diễn ra sôi nổi sau một số rào cản pháp lý mà OpenAI và sản phẩm đặc trưng của nó, ChatGPT phải đối mặt. FTC vào công ty vì lo ngại rằng công ty đang vi phạm luật bảo vệ người tiêu dùng và tham gia vào các hoạt động "không công bằng hoặc lừa đảo" có thể gây tổn hại đến quyền riêng tư và bảo mật của cộng đồng. Cuộc điều tra liên quan đến một lỗi làm rò rỉ dữ liệu riêng tư của người dùng, điều này dường như chắc chắn nằm trong phạm vi của sự tin cậy và an toàn.

Willner nói rằng quyết định của anh ấy thực sự là một “lựa chọn khá dễ thực hiện, mặc dù không phải là lựa chọn mà những người ở vị trí của tôi thường đưa ra một cách rõ ràng trước công chúng.” Anh ấy cũng nói rằng anh ấy hy vọng quyết định của mình sẽ giúp bình thường hóa các cuộc thảo luận cởi mở hơn về cân bằng công việc/cuộc sống. 

Ngày càng có nhiều lo ngại về sự an toàn của AI trong những tháng gần đây và OpenAI là một trong những công ty sản xuất các sản phẩm của mình theo lệnh của Tổng thống Biden và Nhà Trắng. Những điều này bao gồm cho phép các chuyên gia độc lập truy cập vào mã, gắn cờ rủi ro cho xã hội như thành kiến, chia sẻ thông tin an toàn với chính phủ và đánh dấu nội dung âm thanh và hình ảnh để cho mọi người biết rằng nội dung đó do AI tạo ra.

Tất cả các sản phẩm do Engadget đề xuất đều được lựa chọn bởi nhóm biên tập của chúng tôi, độc lập với công ty mẹ của chúng tôi. Một số câu chuyện của chúng tôi bao gồm các liên kết liên kết. Nếu bạn mua thứ gì đó thông qua một trong những liên kết này, chúng tôi có thể kiếm được hoa hồng liên kết. Tất cả giá đều chính xác tại thời điểm xuất bản.

nguồn