La polémica salida y el regreso exprés de Sam Altman a OpenAI, con paso por Microsoft incluido, ha sido el principal culebrón en la última semana en los mercados. Estos días se han ido despejando interrogantes en torno a su despido, aunque quizás la noticia más sorprendente en este episodio tiene que ver con un proyecto secreto dentro de la compañía de inteligencia artificial (IA) que podría representar un importante riesgo para el mundo.
Noticia relacionada
Lío en OpenAI: ¿cuáles son las implicaciones para la IA y las empresas del sector?Según una información de la agencia de noticias 'Reuters', antes de que Altman abandonase la compañía, varios investigadores escribieron una carta al Consejo de Administración de la firma de Silicon Valley advirtiéndoles de los peligros que representaba la apresurada comercialización de la tecnología de IA sin entender bien las consecuencias que podía tener. En esta misiva, los investigadores de OpenAI advertían que el equipo de Ilya Sutskever, antiguo científico jefe y uno de los artífices del despido de Altman, habían realizado un "poderoso descubrimiento de inteligencia artificial" que "podría amenazar a la humanidad".
La carta y este algoritmo, explican estas fuentes, fueron dos de los principales factores que desembocaron en el abrupto despido de Altman y que, a la postre, provocaron que la práctica totalidad de la plantilla amenazase con dimitir en bloque si el "niño de oro" de la IA no volvía a su puesto.
Cabe señalar que la situación interna de OpenAI dista de ser la ideal. En su origen, la compañía creada en 2015 por, entre otros, Elon Musk, nació como una organización sin ánimo de lucro con una misión de impulsar la investigación segura y ética en IA. No obstante, con el paso de los años y bajo el liderazgo de Altman, la compañía ha ido virando hacia una empresa tecnológica más al uso, especialmente desde el lanzamiento de Chat GPT y de su asociación con Microsoft.
Si bien OpenAI no ha respondido a ninguna de las solicitudes de información de los medios de comunicación, 'Reuters' ha confirmado que los empleados de la 'startup' recibieron un mensaje interno en el que se reconocía la existencia del llamado "proyecto Q*" (pronunciado como Q-Star) y que se había redactado una carta alertando de sus peligros. Si bien la agencia no ha tenido acceso a este documento, algunas fuentes internas habrían confirmado que, en versiones posteriores, la ejecutiva Mira Murati desligó este avance con el despido de Altman.
¿QUÉ ES EL PROYECTO Q*?
Algunos miembros de OpenAI creen que Q* podría suponer un gran avance en la búsqueda de lo que se conoce como inteligencia general artificial (AGI, por sus siglas en inglés), según ha declarado una de estas personas a Reuters. OpenAI define la AGI como sistemas autónomos que superan a los humanos en la mayoría de las tareas de valor económico.
Noticia relacionada
Elon Musk cree que la inteligencia artificial tiene el potencial para acabar con el trabajoAsí, habría una diferencia fundamental entre lo que hace Chat GPT y esta nueva IA. Si bien da la sensación de que es autónomo, Chat GPT y otros bots similares están basados en un modelo de lenguaje de gran tamaño (LLM, por sus siglas en inglés) y, grosso modo, es capaz de articular respuestas más o menos convincentes y aparentemente humanas después de estudiar cientos de miles de páginas de texto. No obstante, Chat GPT es incapaz de razonar y de resolver un problema de lógica. En cambio, Q* sí sería capaz de hacerlo.
Según esta información, el nuevo modelo, dotado de grandes recursos informáticos, habría sido capaz de resolver ciertos problemas matemáticos, según declaró una fuente bajo condición de anonimato. A pesar de que "únicamente" realiza operaciones matemáticas al nivel de los alumnos de primaria, el hecho de superar estas pruebas hace que los investigadores se muestren muy optimistas sobre el futuro éxito de Q*.
En este sentido, los investigadores consideran que las matemáticas son la frontera del desarrollo de la IA generativa. Actualmente, la IA generativa es buena escribiendo y traduciendo idiomas mediante la predicción estadística de la siguiente palabra y las respuestas a una misma pregunta pueden variar significativamente. En cambio, conquistar la capacidad de hacer cálculos matemáticos, donde solo hay una respuesta correcta posible, implica que la IA tendría una mayor capacidad de razonamiento que se asemejaría a la inteligencia humana. Esto podría aplicarse, por ejemplo, a la investigación científica, según creen los investigadores de IA.
Noticia relacionada
La inteligencia artificial, ¿una nueva burbuja como la de las puntocom?No obstante, estos avances podrían suponer un peligro potencial de no ser comprendidos en su totalidad, razón por la que los investigadores de la compañía habrían alertado al Consejo de las consecuencias que podría tener comercializar esta tecnología antes de tiempo.
Tras conocerse esta noticia, numerosos expertos en el campo de la IA creen que se haya conseguido este avance en tan poco tiempo no solo es creíble, sino también posible. Además, varios medios especializados creen que Altman habría dejado entrever este avance en un reciente congreso de Cooperación Económica celebrado en San Francisco al reconocer que "cuatro veces en la historia de OpenAI, la última en las dos últimas semanas, he tenido la oportunidad de estar en la sala en la que empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia delante, y poder hacerlo es el honor profesional de mi vida". Un día después de estas declaraciones, Altman fue despedido.