Redacción/CAMBIO22

Un exempleado senior de OpenAI dijo que la compañía detrás de ChatGPT está priorizando los “productos llamativos” sobre la seguridad, y reveló que renunció después de que un desacuerdo sobre objetivos clave alcanzó un “punto de quiebre”.

Jan Leike fue un investigador clave de seguridad en OpenAI como codirector de super alineación, garantizando que los potentes sistemas de inteligencia artificial se adhirieran a los valores y objetivos humanos. Su intervención se produce antes de una cumbre mundial sobre inteligencia artificial que se celebrará en Seúl la próxima semana, donde políticos, expertos y ejecutivos tecnológicos discutirán la supervisión de la tecnología.

Leike renunció días después de que la empresa con sede en San Francisco lanzara su último modelo de inteligencia artificial, GPT-4o. Su partida significa que dos figuras senior de seguridad en OpenAI han dejado la compañía esta semana, luego de la renuncia de Ilya Sutskever, cofundador de OpenAI y codirector de super alineación.

Leike detalló los motivos de su partida en un hilo en X publicado el viernes, en el que dijo que la cultura de seguridad se había convertido en una prioridad menor.

“En los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos llamativos”, escribió.

OpenAI se fundó con el objetivo de garantizar que la inteligencia artificial general, que describe como “sistemas de IA que generalmente son más inteligentes que los humanos”, beneficie a toda la humanidad. En sus publicaciones X, Leike dijo que había estado en desacuerdo con la dirección de OpenAI sobre las prioridades de la compañía durante algún tiempo, pero que el enfrentamiento “finalmente llegó a un punto de quiebre“.

 

 

fuente: la-lista

redaccionqroo@cambio22.mx

EMP

WhatsApp Telegram
Telegram