O líder de confiança e segurança da OpenAI está deixando a empresa

O líder de confiança e segurança da OpenAI, Dave Willner, deixou o cargo, conforme anunciado Willner continua em um “papel consultivo”, mas pediu aos seguidores do Linkedin que “procurem” oportunidades relacionadas. O ex-líder do projeto OpenAI afirma que a mudança ocorre após a decisão de passar mais tempo com sua família. Sim, é o que eles sempre dizem, mas Willner segue com detalhes reais.

“Nos meses que se seguiram ao lançamento do ChatGPT, achei cada vez mais difícil manter minha parte no acordo”, escreve ele. “A OpenAI está passando por uma fase de alta intensidade em seu desenvolvimento – assim como nossos filhos. Qualquer pessoa com filhos pequenos e um trabalho super intenso pode se identificar com essa tensão.”

Ele continua a dizer que está “orgulhoso de tudo” que a empresa realizou durante sua gestão e observou que foi “um dos trabalhos mais legais e interessantes” do mundo.

Claro, essa transição vem logo após alguns obstáculos legais enfrentados pela OpenAI e seu produto de assinatura, ChatGPT. A FTC entrou na empresa devido a preocupações de que ela esteja violando as leis de proteção ao consumidor e se envolvendo em práticas “injustas ou enganosas” que podem prejudicar a privacidade e a segurança do público. A investigação envolve um bug que vazou os dados privados dos usuários, o que certamente parece estar sob a alçada da confiança e segurança.

Willner diz que sua decisão foi na verdade uma “escolha muito fácil de fazer, embora não seja uma escolha que as pessoas na minha posição costumam fazer de forma tão explícita em público”. Ele também afirma que espera que sua decisão ajude a normalizar discussões mais abertas sobre o equilíbrio entre trabalho e vida pessoal. 

Há uma preocupação crescente com a segurança da IA ​​nos últimos meses e a OpenAI é uma das empresas que usa seus produtos a pedido do presidente Biden e da Casa Branca. Isso inclui permitir que especialistas independentes acessem o código, sinalizar riscos para a sociedade como preconceitos, compartilhar informações de segurança com o governo e marcar o conteúdo de áudio e visual com marca d'água para que as pessoas saibam que é gerado por IA.

Todos os produtos recomendados pelo Engadget são selecionados por nossa equipe editorial, independente de nossa matriz. Algumas de nossas histórias incluem links de afiliados. Se você comprar algo através de um desses links, podemos ganhar uma comissão de afiliado. Todos os preços estão corretos no momento da publicação.

fonte