Las redes sociales tendrán una hora para borrar contenido terrorista
La Comisión Europea prepara una normativa que afectará a Facebook o Twitter
Actualizado : 14:34
La Comisión Europea planea una normativa en la que obligará a las redes sociales a identificar y eliminar contenido que suponga propaganda terrorista o violencia extremista. Con esto, compañías como Facebook, Twitter, Instagram o Youtube tendrán que borrar este contenido en un tiempo máximo de una hora, de lo contrario podrían enfrentarse a multas. Hasta ahora este acto era voluntario.
El borrador en el que se incluirán estas nuevas medidas se publicará en septiembre, según informa el Financial Times, una vez que la Comisión Europea haya decidido ser más estricta con las plataformas de internet. Desde Bruselas aseguran que "no han visto suficientes progresos" en la eliminación del material terrorista, por lo que "tomará medidas más enérgicas para proteger mejor a los ciudadanos". "No podemos permitirnos relajarnos o volvernos complacientes frente a un fenómeno tan sombrío y destructivo", añaden a declaraciones al periódico.
Desde Bruselas aseguran que "no han visto suficientes progresos" en la eliminación del material terrorista
Aunque los detalles de la regulación aún se están elaborando, esta nueva normativa supondrá la primera vez que la UE apunta explícitamente al manejo de contenido ilegal por parte de las compañías tecnológicas. Hasta ahora, Bruselas había favorecido la autorregulación de las redes sociales, que no son consideradas legalmente responsables del material publicado en ellas.
Julian King, comisario europeo de Seguridad, ha explicado al Financial Times que el proyecto, que debe ser aprobado por el Parlamento Europeo y la mayoría de los Estados miembros de la UE para entrar en vigor, ayudará a crear seguridad jurídica para las plataformas y se aplicará a todos los sitios web, independientemente de su tamaño. La represión de Bruselas contra la actividad extremista se produce tras los ataques terroristas en Londres, París y Berlín en los últimos dos años.
"La diferencia en tamaño y recursos significa que las plataformas tienen diferentes capacidades para actuar contra el contenido terrorista y sus políticas para hacerlo no siempre son transparentes. Todo esto lleva a que ese contenido continúe proliferando a través de Internet, reapareciendo una vez que se elimina y se extiende de una plataforma a otra", afirma King.
Por su parte, las compañías implicadas defienden su autorregulación. Google asegura que más del 90% del material terrorista eliminado de YouTube se hizo automáticamente y que la mitad de los videos tienen menos de 10 reproducciones. Mientras, Facebook ha dicho que ha eliminado la gran mayoría de los 1,9 millones de contenido de Isis y al-Qaeda que se detectaron en los primeros tres meses de este año.