Economía.- Expertos debaten sobre la desconfianza ante la IA: "Los sistemas complejos son como cajas negras"
MADRID, 16 (EUROPA PRESS)
ISACA (Information Systems Audit and Control Association, en inglés) ha celebrado su conferencia 'Digital Trust World', que ha reunido en Dublín a líderes de opinión y expertos en confianza digital, ciberseguridad, inteligencia artificial (IA) y otros temas relativos a los retos y oportunidades actuales de la industria de IT.
En estas jornadas, se ha debatido sobre la desconfianza que generan los sistemas de IA más complejos, que llegan a ser como "cajas negras", ya que los procesos de toma de decisiones resultantes "no son fácilmente comprensibles e interpretables por los humanos".
Jason Lau, miembro del comité directivo de ISACA, asociación de profesionales que ayuda a personas y organizaciones en su empeño por lograr la confianza digital, ha sido uno de los encargados de debatir sobre esta cuestión.
Así, pese a reconocer que el crecimiento exponencial de la inteligencia artificial ha abierto una nueva era de posibilidades, alerta de que su nivel de sofisticación la convierte también en una "tecnología opaca".
Esta opacidad ha provocado que exista la llamada "paradoja de la confianza", es decir, que cuanto más autónomo es un sistema de inteligencia artificial, más difícil es de comprender y, por lo tanto, mayor es la desconfianza a la hora de utilizarlo.
"Esta falta de transparencia puede llevar a escepticismo y desconfianza, especialmente cuando las decisiones que se derivan de la información obtenida pueden tener consecuencias significativas", afirma Jason Lau.
Para los negocios, esta desconfianza se puede traducir en la decisión de no adoptar soluciones de inteligencia artificial, aunque prometan eficiencia e innovación.
Para abordar estas preocupaciones, ISACA ha desarrollado un documento titulado 'La promesa y peligros de la revolución de la inteligencia: gestión de riesgos', que proporciona un marco integral para crear y mantener la confianza en los sistemas de IA.
UN MARCO PARA UNA BUENA APLICACIÓN DE LA IA
El marco hace hincapié en la necesidad de tres factores clave: la transparencia para asegurar que los procesos y las decisiones se puedan explicar y comprender por parte de humanos; responsabilidad de los sistemas y sus desarrolladores para asumir las consecuencias de sus programaciones; y ética para asegurar que la inteligencia artificial se desarrolla y utiliza de manera ética y beneficiosa para todos.
En este sentido, tiene también un papel importante la gestión de riesgos. "Es posible identificar, evaluar y mitigar los riesgos asociados con la inteligencia artificial, de manera que los negocios puedan asegurarse de que exprimen los beneficios de la inteligencia artificial sin comprometer la seguridad, la ética o la transparencia", explica la asociación.
Para ello, ISACA asegura que son necesarios tres factores: una monitorización continua, evaluando regularmente los sistemas de inteligencia artificial para identificar riesgos y vulnerabilidades potenciales; la implicación de todos los 'stakeholders', desde los desarrolladores hasta los usuarios finales, en el proceso de gestión de riesgos; y el establecimiento de mecanismos para lograr 'feedback' de los resultados de la IA y garantizar que estos comentarios se utilizan para mejorar y refinar los sistemas.
En este contexto, Jason Lau, señala que "los procedimientos y guías establecen una posible hoja de ruta para incrementar la confianza en la IA", pero advierte de que "solamente se consigue mantener esa confianza gracias a una acción constante". "De otro modo, irá decayendo. Por eso es imprescindible contar con auditorías periódicas, establecer iniciativas transparentes y formar continuamente tanto a los desarrolladores como a los usuarios en las implicaciones éticas de la IA", concluye.