El líder de confianza y seguridad de OpenAI deja la empresa

El líder de confianza y seguridad de OpenAI, Dave Willner, ha dejado el puesto, como se anunció Willner se queda en un "papel de asesor", pero ha pedido a los seguidores de Linkedin que "busquen" oportunidades relacionadas. El ex líder del proyecto OpenAI afirma que la mudanza se produce después de la decisión de pasar más tiempo con su familia. Sí, eso es lo que siempre dicen, pero Willner continúa con detalles reales.

“En los meses posteriores al lanzamiento de ChatGPT, me resultó cada vez más difícil cumplir con mi parte del trato”, escribe. “OpenAI está pasando por una fase de alta intensidad en su desarrollo, al igual que nuestros niños. Cualquier persona con niños pequeños y un trabajo súper intenso puede identificarse con esa tensión”.

Continúa diciendo que está "orgulloso de todo" lo que la compañía logró durante su mandato y señaló que fue "uno de los trabajos más geniales e interesantes" del mundo.

Por supuesto, esta transición llega inmediatamente después de algunos obstáculos legales que enfrentan OpenAI y su producto insignia, ChatGPT. La FTC ingresó a la empresa debido a preocupaciones de que está violando las leyes de protección al consumidor y participando en prácticas "desleales o engañosas" que podrían dañar la privacidad y la seguridad del público. La investigación involucra un error que filtró datos privados de los usuarios, lo que ciertamente parece estar dentro del ámbito de la confianza y la seguridad.

Willner dice que su decisión fue en realidad una "elección bastante fácil de tomar, aunque no una que la gente en mi posición a menudo haga tan explícitamente en público". También afirma que espera que su decisión ayude a normalizar discusiones más abiertas sobre el equilibrio entre el trabajo y la vida. 

Hay una creciente preocupación por la seguridad de la IA en los últimos meses y OpenAI es una de las empresas que utiliza sus productos a instancias del presidente Biden y la Casa Blanca. Estos incluyen permitir que expertos independientes accedan al código, señalar los riesgos para la sociedad como los sesgos, compartir información de seguridad con el gobierno y marcar con agua el contenido de audio y visual para que las personas sepan que está generado por IA.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.

Fuente