Cree que "actualmente la capacidad de la inteligencia artificial es muy limitada"
Sam Altman, director ejecutivo de OpenAI, cree que es necesario "actuar con prudencia" en el caso de la inteligencia artificial (IA) y ha reconocido que "llega un momento en el que hay que reírse" de su despido de la compañía tecnológica porque fue "ridículo".
"La mayor lección que he aprendido de este escándalo es la fuerza del equipo porque he visto que todos juntos hemos construido una gran organización que funciona muy bien", ha explicado.
Altman también ha explicado que en un primer momento pensó en no volver a OpenAI cuando la empresa se lo pidió "porque estaba muy enfadado, pero luego recuperé la razón y pensé que no quería destruir todo esto y todo lo ha hecho esta gente maravillosa".
Durante su intervención en una mesa redonda en el Foro de Davos, el ejecutivo ha explicado que "actualmente la capacidad de la inteligencia artificial es muy limitada. Tiene muchos errores. La gente la utiliza para ganar productividad, pero con muchas limitaciones".
Y que a veces un sistema puede ser "muy creativo, pero también se puede equivocar". "La gente entiende las herramientas y los límites mucho más de lo que creemos. Se han encontrado medios para hacer que ChatGPT sea sumamente útil y en la mayoría de los casos saben en qué ámbitos no hay que utilizarlo. Es una muy buena señal", ha añadido.
"Creo que la IA se ha desmitificado a través de uso que la gente hace de ella", ha puntualizado.
Cuestionado sobre la preocupación por la fiabilidad y la confianza en esta nueva tecnología, Altman ha indicado que "los humanos están dispuestos a perdonar a otros humanos que cometen errores, pero no a una máquina que comete un error".
¿Qué les queda a los humanos si la IA puede analizar más que un hombre?, le ha preguntado. "Los humanos se preocupan mucho de la vida de otros humanos. Las relaciones interpersonales nos interesan mucho y seguiremos tomando decisiones sobre la manera en que tiene que avanzar el mundo", ha respondido.
Asimismo, le han trasladado a Altman el temor existente de que la tecnología gane y supere a los humanos, tal y como han manifestado algunas personas como Bill Gates.
"No necesariamente están equivocados, hay algo de verdad en lo que dicen porque es una tecnología sumamente poderosa y no es posible afirmar en qué se convertirá, pero podríamos imaginar con la IA que tendrá un enorme impacto con todos los riesgos que ello conlleva y hay que avanzar paso a paso, debatiendo en cuanto a normativas", ha subrayado el ejecutivo.
En este sentido, Altman ha advertido que "hay que identificar los umbrales de seguridad, cuáles son los umbrales adecuados y aceptar el hecho de que los umbrales de seguridad de un país no pueden ser los mismos que en otro país".
"Creo que es necesario actuar con prudencia" ya que, en caso de no hacerlo, las consecuencias podrían ser "fatales", ha matizado.
"Nosotros tenemos que manejar la cosas correctamente poniendo la tecnología en buenas manos e intentando avanzar paso a paso. Al hacerlo, los grandes sistemas del mañana podrán prestarnos múltiples servicios", ha dicho.
En cuanto a la denuncia que 'The New York Times' ha interpuesto a la compañía por utilizar sus artículos para potenciar a su robot conversacional ChatGPT, Altman ha aseverado que "no necesitan" sus publicaciones, pero que las dos compañías siguen negociando para llegar a una acuerdo.
"No hace falta leer mil libros de biología para aprender de biología. Con dos puede ser suficiente. Nuestros modelos van en ese sentido", ha concluido.