Piñar (Cátedra Google) defiende la colaboración entre expertos para afrontar la cuestión del uso de algoritmos

Por

Europa Press | 29 ene, 2020

MADRID, 29 (EUROPA PRESS)

El titular de la Cátedra Google sobre Privacidad, Sociedad e Innovación de la Universidad CEU San Pablo y único representante de España en el Comité Científico del Computers, Privacy & Data Protection (CPDP), José Luis Piñar, ha defendido la necesaria colaboración y trabajo entre expertos de diferentes sectores para afrontar la cuestión del uso de los algoritmos y evitar que de ello deriven prácticas discriminatorias.

"Para que la transparencia de los algoritmos pueda ayudar a limitar el impacto en la protección de datos personales en el contexto de la Inteligencia Artificial, es esencial que equipos multidisciplinares colaboren estrechamente", ha explicado durante el panel 'Transparencia algorítmica y no discriminación', organizado por la Cátedra en el marco de la Conferencia Internacional CPDP 2020, que reúne en Bruselas a expertos en privacidad y protección de datos.

Durante los tres días de la XIII edición de la Conferencia, se analizaron los retos de la Protección de Datos y del desarrollo de la Inteligencia Artificial, así como sus posibles impactos en la sociedad actual bajo el título 'Protección de Datos e Inteligencia Artificial'.

En el panel, la presidenta del Hunton Andrews Kurth LLP's Centre for Information Policy Leadership, Bojana Bellamy, ha puesto de manifiesto "la relación entre la Inteligencia Artificial y los principios tradicionales de la Protección de Datos".

En este sentido, Bellamy ha asegurado que el Reglamento General de Protección de Datos (RGDP) "se puede aprovechar para garantizar el desarrollo y la implementación responsable de la Inteligencia Artificial en base a los principios de transparencia, equidad y no discriminación".

Por su parte, el presidente del Istituto Italiano per la Privacy e la Valorizzazione dei Dati, Luca Bolognini, ha abordado las diferencias entre el uso de algoritmos para fines públicos o privados. Sobre la esfera pública, ha afirmado que "los algoritmos deben ser totalmente verificables por las autoridades competentes, judiciales y/o independientes". En cuanto a su uso para fines privados, considera que "deben ser utilizados con transparencia, siempre equilibrada con otros derechos y libertades con el objetivo de proteger las inversiones y la innovación".

Además, Bolognini ha instado a mirar más allá del RGDP, más en concreto más allá del artículo 22, con el fin de introducir el novedoso principio del "Estado de derecho humano" en las Constituciones nacionales o en la Carta de Derechos Fundamentales de la Unión Europea.

"Este principio debería ser de aplicación incluso para el caso de decisiones automatizadas y basadas en el uso de datos no-personales, con la posibilidad --para cada persona-- de requerir la intervención humana en la toma de decisiones, garantizando finalmente que los super-admin y los legisladores siempre y exclusivamente sean seres humanos", ha enfatizado.

APLICACIÓN COMPLICADA

Flora Egea, DPO del Grupo BBVA, ha indicado que el marco europeo encargado de regular la imparcialidad, que debe estar presente en todo algoritmo, tiene "una aplicación complicada porque varía dependiendo del sector".

Para Egea, las entidades deben velar por un resultado no discriminatorio en sus algoritmos. En este sentido, ha subrayado que "el RGPD no permite a la entidad recabar y tratar los datos de vulnerabilidad a causa del principio de minimización y de proporcionalidad".

En cuanto a la transparencia, considera necesario que se "aclare qué es 'suficiente' para cumplir con la exigencia de "explicabilidad" de un algoritmo porque entenderlo como información al detalle no es un planteamiento realista, ni protege mejor los derechos fundamentales". Además, ha matizado que "pondría en peligro la innovación algorítmica".

Por último, Jens-Henrik Jeppesen ha presentado el 'Digital Decisions Tool' desarrollado por el Center for Democracy and Technology, una herramienta para la utilización de algoritmos para la toma de decisiones. Esta utilidad se basa en un modelo "que establece cómo los diseñadores de herramientas algorítmicas para la toma de decisiones pueden garantizar que el producto o el servicio no genere ni sesgos ni discriminación de manera injustificada", ha concluido.

Últimas noticias