Pereira, Colombia - Edición: 13.263-853

Fecha: Domingo 19-05-2024

 

 TECNOLOGÍA

 

-14

 

El equipo de OpenAI encargado de analizar el riesgo de la IA ya no existe.




En julio del año pasado, OpenAI anunció la formación de un nuevo equipo de “Superalignment” (Superalineación), que prepararía la llegada de una inteligencia artificial superinteligente, capaz de burlar y superar a sus creadores. Ilya Sutskever, científico jefe de OpenAI y uno de los cofundadores de la empresa, fue nombrado codirector de aquel nuevo equipo. OpenAI dijo que el grupo recibiría el 20% de su potencia informática.

No más, pues ahora el equipo de Superalineación de OpenAI no existe, confirmó la empresa. Esto se produce tras la marcha de varios investigadores implicados, la noticia del martes de que Sutskever dejaba la empresa y la dimisión del otro colega del equipo. El trabajo del conjunto se integrará en otras actividades de investigación de OpenAI.

La marcha de Sutskever saltó a los titulares porque, aunque había ayudado al CEO Sam Altman a poner en marcha OpenAI en 2015 y había marcado el rumbo de la investigación que dio lugar a ChatGPT, también fue uno de los cuatro miembros de la Junta que despidió a Altman en noviembre. Altman fue restituido como CEO cinco caóticos días después, tras una revuelta masiva del personal de OpenAI y la mediación de un acuerdo en el que Sutskever y otros dos directores de la empresa abandonaron la Junta.

Horas después de que se anunciara la marcha de Sutskever el martes, Jan Leike, el antiguo investigador de DeepMind que era el otro colíder del equipo de Superalineación, publicó en X que había dimitido. Bastante silencio. Ni Sutskever ni Leike respondieron a las peticiones de comentarios. Sutskever no ofreció una explicación de su decisión de irse, pero entregó su apoyo a la trayectoria
      actual de OpenAI en un post en X. "La trayectoria de la compañía ha sido nada menos que milagrosa, y estoy seguro de que OpenAI construirá IAG (Inteligencia Artificial General) que sea
 

 

 

a la vez segura y beneficiosa" bajo su liderazgo actual, escribió.



Leike publicó el viernes un hilo en X en el que explicaba que su decisión se debía a un desacuerdo sobre las prioridades de la empresa y la cantidad de recursos que se asignaban a su equipo. "He estado en desacuerdo con la dirección de OpenAI sobre las prioridades básicas de la empresa durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura", escribió Leike, "En los últimos meses mi equipo ha estado navegando contra el viento. A veces teníamos problemas de computación y cada vez era más difícil llevar a cabo esta investigación crucial."

La disolución del equipo de Superalineación de OpenAI se suma a las recientes pruebas de una sacudida dentro de la empresa a raíz de la crisis de gobernanza del pasado noviembre. Dos investigadores del equipo, Leopold Aschenbrenner y Pavel Izmailov, fueron despedidos por filtrar secretos de la empresa, según informó The Information el mes pasado. Otro miembro del equipo, William Saunders, abandonó OpenAI en febrero, según se publicó en un foro de internet en su nombre.

Otros dos investigadores de OpenAI que trabajaban en política y gobernanza de la IA también parecen haber abandonado la empresa recientemente. Cullen O'Keefe dejó su puesto de jefe de investigación sobre fronteras políticas en abril, según LinkedIn. Daniel Kokotajlo, un investigador de OpenAI que ha sido coautor de varios artículos sobre los peligros de los modelos de IA más capaces, "abandonó OpenAI debido a la
pérdida de confianza en que se comportaría de forma responsable en la época de la AGI", según una publicación en un foro de Internet en su nombre. Ninguno de los investigadores que al parecer se han marchado respondió a las peticiones de comentarios.

OpenAI declinó hacer comentarios sobre la marcha de Sutskever, de otros miembros del equipo de Superalineación, o sobre el futuro de su trabajo sobre los riesgos de la IA a largo plazo. La investigación sobre los riesgos asociados a modelos más potentes correrá a cargo de John Schulman, quien coordina el equipo responsable de ajustar los modelos de IA tras el entrenamiento.



El equipo de Superalineación no era el único que reflexionaba sobre

 

 

 


la cuestión de cómo mantener la IA bajo control, aunque se posicionó públicamente como el principal que trabajaba en la versión más lejana de ese problema. La entrada del blog que anunciaba el equipo de Superalineación el verano pasado afirmaba: "Actualmente, no tenemos una solución para dirigir o controlar una IA potencialmente superinteligente y evitar que se vuelva rebelde".

Los estatutos de OpenAI la comprometen a desarrollar la llamada inteligencia artificial general, o tecnología que rivalice o supere a los humanos, de forma segura y en beneficio de la humanidad. Sutskever y otros líderes han hablado a menudo de la necesidad de proceder con cautela. Pero OpenAI también ha sido pionera en desarrollar y dar a conocer públicamente proyectos experimentales de IA. En el pasado, OpenAI era inusual entre los laboratorios de IA destacados por el entusiasmo con el que los investigadores como Sutskever hablaban de crear IA sobrehumana y de la posibilidad de que esa tecnología se volviera contra la humanidad. Este tipo de discurso se generalizó el año pasado, después de que ChatGPT convirtiera a OpenAI en la empresa tecnológica más importante y vigilada del planeta. A medida que los investigadores y los responsables políticos lidiaban con las implicaciones de ChatGPT y la perspectiva de una IA mucho más capaz, se hizo menos controversial preocuparse porque la IA perjudicara a humanos o a la humanidad en su conjunto.

La angustia existencial se ha enfriado desde entonces. Y la IA aún tiene que dar otro salto masivo, pero la necesidad de regular la IA sigue siendo un tema candente. Y esta semana OpenAI ha presentado una nueva versión de ChatGPT que podría volver a cambiar la relación de la gente con la tecnología de formas nuevas, potentes y quizá problemáticas. Las salidas de Sutskever y Leike se producen poco después de la última gran revelación de OpenAI: un nuevo modelo de IA "multimodal" llamado GPT-4o que permite a ChatGPT ver el mundo y conversar de una forma más natural y humana. En una demostración transmitida en vivo, la nueva versión de ChatGPT imitaba las emociones humanas e incluso intentaba ligar con los usuarios. OpenAI ha asegurado que pondrá la nueva interfaz a disposición de los usuarios de pago en un par de semanas.



No hay indicios de que las recientes salidas tengan algo que ver con los esfuerzos de OpenAI por desarrollar una IA más parecida a la humana o por lanzar productos. Pero los últimos avances plantean cuestiones éticas en torno a la privacidad, la manipulación emocional y los riesgos de ciberseguridad. OpenAI cuenta con otro grupo de investigación, el equipo Preparedness, que se centra en estas cuestiones.

 

 

  

 

 

EL IMPARCIAL

Submit

 

 

© El Imparcial Editores S.A.S  |   Contacto 57 606 348 6207  

 

    © 1948-2009 - 2024 - El Imparcial - La idea y concepto de este periódico fue hecho en Online Periodical Format (OPF) que es un Copyright de ZahurK.

    Queda prohibido el uso de este formato e idea (OPF) sin previa autorización escrita de ZahurK