Muestran su preocupación por el rápido avance de la industria
Un grupo de trabajadores y exempleados de OpenAI ha publicado una carta abierta en la que muestran su preocupación por el rápido avance de la inteligencia artificial (IA), así como de los "graves riesgos" que plantea esta tecnología y de la falta de supervisión.
A pesar de que reconocen el potencial de la IA y de los beneficios "sin precedentes" que puede ofrecer a la humanidad, alertan de "los graves riesgos que plantean estas tecnologías".
"Estos riesgos van desde el afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA que podrían provocar la extinción humana. Las propias empresas de IA han reconocido estos riesgos, al igual que los gobiernos de todo el mundo y otros expertos en IA", remarcan.
Y aunque ellos confían en que estos riesgos puedan mitigarse adecuadamente con la orientación de la comunidad científica, ponen el foco en que "las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras de gobierno corporativo a medida sean suficientes para cambiar esto".
"Las empresas de IA poseen información sustancial no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños", añaden.
No obstante, dicen que en la actualidad solo tienen obligaciones débiles de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil. "No creemos que se pueda confiar en que todos lo compartan voluntariamente", insisten.
"Mientras no haya una supervisión gubernamental efectiva de estas corporaciones, los empleados actuales y anteriores se encuentran entre las pocas personas que pueden hacerlas responsables ante el público. Sin embargo, los amplios acuerdos de confidencialidad nos impiden expresar nuestras preocupaciones, excepto a las mismas empresas que pueden no estar abordando estos problemas", afirma este grupo de trabajadores.
De hecho, señalan que las protecciones ordinarias de los denunciantes son insuficientes porque se centran en actividades ilegales, mientras que muchos de los riesgos que nos preocupan aún no están regulados. Por lo que algunos de ellos temen varias formas de represalias, "dada la historia de tales casos en toda la industria".
Por todo ello, hacen un llamamiento a las empresas de IA para se comprometan a no celebrar ni hacer cumplir acuerdos de no desprestigio; crear procesos anónimos para que los empleados actuales y anteriores expresen sus preocupaciones a la junta directiva de una empresa, a los reguladores y a otros; apoyar una cultura de crítica abierta; y no tomar represalias contra la denuncia pública de irregularidades si fracasan los procesos internos de denuncia.
"Estamos de acuerdo en que el debate riguroso es crucial dada la importancia de esta tecnología y continuaremos comprometiéndonos con los gobiernos, la sociedad civil y otras comunidades de todo el mundo", ha declarado un portavoz de OpenAI a 'CNBC', quien ha agregado que la compañía tiene una línea directa de integridad anónima, así como un Comité de Seguridad y Protección dirigido por miembros de la junta y líderes de OpenAI.