Un nuevo marco legal para luchar contra los contenidos ilícitos en internet

15 junio, 2021
marco-legal-contenidos-ilicitos

Los contenidos ilícitos e indeseables en internet están por desgracia a la orden del día. Las diversas plataformas, particularmente las redes sociales, como Facebook o Instagram, y los sitios de compartición de vídeos, como YouTube, además de responder a las notificaciones de retirada que reciben, llevan tiempo aplicando sistemas de detección y medidas voluntarias de moderación y de remoción de contenidos ilegales, fake news, campañas de desinformación, o simplemente materiales contrarios a sus condiciones de uso específicas.

No es precisamente una tarea sencilla. Un volumen ingente de nuevos contenidos sube a las plataformas cada minuto. Y determinar si un concreto vídeo o comentario vulnera la ley o las políticas del operador puede resultar muy complejo, especialmente teniendo en cuenta que a menudo deberán ponderarse intereses contrapuestos, incluido el derecho a la libertad de expresión e información de quien sube el contenido. 

Deberes de las plataformas en ámbitos específicos

La presión legal sobre las plataformas para que pongan coto a la diseminación de estos contenidos no deja de aumentar. La Unión Europea (UE) está siendo muy activa en la producción de normas y recomendaciones en este campo, y las obligaciones que impone a las plataformas son cada vez más exigentes. El pasado 17 de mayo, coincidiendo con el día mundial de internet, se publicó en el Diario Oficial de la UE el Reglamento UE 2021/784, sobre la lucha contra la difusión de contenidos terroristas en línea. El nuevo Reglamento, que será aplicable a partir del 7 de junio del próximo año, exige a las plataformas retirar contenidos en el plazo de una hora desde que reciben la correspondiente orden de remoción. Estas medidas vienen a sumarse a las establecidas últimamente en otras normas. Así, por ejemplo, las previstas en la reforma de la Directiva de servicios de comunicación audiovisual, que impone deberes de diligencia a las plataformas de alojamiento de vídeos. O las establecidas en la Directiva de derechos de autor en el mercado único digital, en relación con la difusión de materiales protegidos por derechos de autor, que cambia por completo el esquema de responsabilidad previsto hasta el momento, al hacer responsable a la plataforma de esos contenidos e imponer en la práctica la implementación de herramientas de filtrado. Estas dos directivas están todavía pendientes de transposición al derecho español, pero deberán incorporarse en breve si se quiere evitar una nueva sanción de Bruselas por falta de transposición en plazo, como ha ocurrido recientemente en relación con otra Directiva.

Estas medidas –aunque de gran alcance– no dejan de ser sectoriales, bien porque se refieren a una categoría específica de plataformas, o bien porque tratan sobre un tipo concreto de contenidos ilícitos, como los de carácter terrorista. Aunque a duras penas, el marco general sigue siendo todavía el que se estableció en la Directiva sobre comercio electrónico (DCE) del año 2000, que concedió a las plataformas que alojan contenidos una exención de responsabilidad, de tal modo que no son responsables de los contenidos ilícitos subidos por sus usuarios si no han tenido conocimiento efectivo de los mismos, o si los retiran una vez obtenido tal conocimiento. Sin embargo, este régimen está a punto de experimentar cambios notables.

La propuesta de Digital Services Act

Hace unos meses, la Comisión Europea puso en marcha un ambicioso paquete regulatorio que incide directamente sobre la responsabilidad de las plataformas por los contenidos subidos por sus usuarios. Se trata, en particular, de la propuesta de Reglamento de Servicios Digitales en el mercado interior o Digital Services Act (DSA). Con esta propuesta, la Comisión Europea quiere poner al día las normas generales sobre exención de responsabilidad, que llevan ya más de veinte años en vigor. No pretende un cambio radical respecto del sistema establecido en el año 2000, pero sí busca, por una parte, potenciar una interpretación uniforme en todos los Estados miembros de la UE (por ello se propone un Reglamento, es decir, una normativa aplicable directamente a todos los Estados, y no, como hasta ahora, una Directiva, que se presta a divergencias en las transposiciones nacionales). Y, por otra parte, pretende actualizar ese régimen con la interpretación que ha ido fijando en estos años la jurisprudencia del Tribunal de Justicia de la Unión Europea (TJUE). O por lo menos esto es lo que se dice en la propuesta.

Sin embargo, en un análisis más detallado se observan cambios de relieve en el alcance de las exenciones de responsabilidad, por más que se mantenga la literalidad de los artículos 12 a 15 de la DCE, que se suprimirán de la Directiva para ser trasladados al futuro Reglamento.  Además de esos artículos, la DSA confirma el controvertido requisito de neutralidad de la plataforma que viene exigiendo el TJUE para la aplicabilidad de la exención, pero aclara que la moderación proactiva y voluntaria de contenidos no implicará por sí sola el riesgo de perder la exención por falta de neutralidad. Prevé, además, un sistema detallado de notificación y retirada, algo que no había regulado en su momento la DCE. Y precisa que si la notificación de la presencia de un contenido ilícito cumple con los mínimos fijados se entenderá que la plataforma ha adquirido conocimiento efectivo, y por tanto sólo podrá conservar la exención de responsabilidad si retira el contenido.

Pero, sobre todo, DSA viene a imponer una larga lista de obligaciones de diligencia y de transparencia a cargo de las plataformas, que se incrementan en el caso de plataformas de gran tamaño en la UE (a partir de 45 millones de usuarios activos mensuales). No se trata de un régimen que atribuya responsabilidad por los contenidos, pero la falta de cumplimiento de tales deberes de cuidado dará lugar a sanciones administrativas tan o más severas que las de la normativa de protección de datos, ya que pueden llegar hasta el 6% de la facturación anual del operador.

El nuevo marco legal –al que se añade otra propuesta, la Digital Markets Act, más centrada asegurar la libre competencia en el mercado– se halla de momento en fase de tramitación legislativa. El Parlamento Europeo y el Consejo podrán introducir cambios importantes antes de llegar al necesario consenso para su aprobación. Sin duda, su aprobación final y puesta en funcionamiento van a implicar cambios importantes en el ecosistema de las plataformas de internet. El reto está en lograr que la nueva regulación resulte respetuosa con el necesario equilibrio de derechos de todos los afectados, y beneficiosa para la sociedad en su conjunto.

Imatge

Sobre este y otros campos relacionados debatimos en detalle en el 16º Congreso Internet, Derecho y Política “Rebuilding the EU Digital Market” que tuvo lugar virtualmente los días 30 de junio y 1 de julio. Puedes encontrar los vídeos de las conferencias y mesas redondas en este enlace

(Visited 198 times, 1 visits today)
Autor / Autora
Doctor en Derecho por la Universidad de Barcelona. Profesor Agregado de Derecho Mercantil en la Universitat Oberta de Catalunya. Su campo principal de investigación se centra en los aspectos jurídicos de la sociedad de la información, propiedad intelectual e industrial, protección de datos, inteligencia artificial y comercio electrónico. Es miembro del grupo de investigación DDI (Derecho de Internet) de la UOC y lidera, junto con la profesora Raquel Xalabarder, un proyecto de I+D+i sobre derecho e inteligencia artificial. 
Comentarios
Deja un comentario