La nueva Directiva sobre Derechos de Autor en el Mercado Único Digital (III)

Analizamos el art. 17 de la nueva Directiva sobre Derechos de Autor en el Mercado Único Digital y sus implicaciones.

Siguiendo con las notas anteriores sobre la nueva Directiva, dedicamos esta última entrada al polémico artículo 17, en el que se ha centrado en mayor medida la controversia suscitada con la nueva regulación. Contra dicho precepto, más conocido por su anterior numeración como Artículo 13, se han dirigido feroces críticas, alertando de que su aprobación instauraría un sistema general de censura y daría lugar al final de Internet tal como lo conocemos. Como suele ocurrir, tales críticas tienen su parte de exageración y su parte de fundamento real. Como también ocurre con las encendidas defensas institucionales de la normativa llevadas a cabo por la Comisión.

El artículo 17 cambia de modo sustancial el marco jurídico que hasta ahora amparaba la actividad de las plataformas en línea a las que los usuarios pueden subir contenidos.

Lo cierto es que el flamante Artículo 17, que deberá ser traspuesto a los ordenamientos nacionales en el plazo de dos años, cambia de modo sustancial el marco jurídico que hasta ahora amparaba la actividad de las plataformas en línea a las que los usuarios pueden subir contenidos.

Estas plataformas ya han estado bajo la lupa del legislador a través de múltiples medidas, con las que se les exige una mayor vigilancia en relación, entre otros, con los contenidos que inciten al odio, que promuevan el terrorismo, o que difundan desinformación y fake news. En este sentido cabe destacar diversas iniciativas legislativas, como la Directiva 2018/1808, de noviembre de 2018, que modifica el marco jurídico de los servicios de comunicación audiovisual y establece obligaciones específicas para las plataformas de alojamiento de vídeos; o la propuesta de Reglamento para la prevención de la difusión de contenidos terroristas en línea.

La nueva Directiva de Derechos de Autor define un tipo de plataformas, que denomina “prestadores de servicios para compartir contenidos en línea”, cuya actividad se caracteriza por “almacenar y dar al público acceso a una gran cantidad de obras u otras prestaciones protegidas cargadas por sus usuarios, que el servicio organiza y promociona con fines lucrativos.” Aquí entran sin duda las grandes y pequeñas redes sociales y plataformas por todos conocidas, aunque se han excluido expresamente determinados servicios que carecen de ánimo de lucro.

Entre los contenidos que suben los usuarios, hay sin duda materiales que están protegidos por derechos de autor y que se suben sin autorización. Hasta ahora, siempre que cumplieran con ciertos requisitos de neutralidad, las plataformas podían limitarse a retirar el contenido cuando fueran alertadas de su presencia por parte de los titulares de derechos, de acuerdo con la exclusión de responsabilidad establecida en la Directiva de Comercio Electrónico.

El único modo de evitar la presencia de contenidos no autorizados en la plataforma es la instalación de filtros que bloqueen todos aquellos materiales (vídeos, música, fotografía, textos) que no hayan sido licenciados a la plataforma

Con el Artículo 17, en cambio, se establece que la actividad de estas plataformas constituye en sí misma una infracción del derecho de comunicación al público, y que serán responsables de cualquier contenido que se encuentre en sus servidores sin la autorización de los titulares. De modo expreso se establece que no podrán beneficiarse de la exclusión de responsabilidad de la Directiva de Comercio Electrónico.

El único modo de evitar la presencia de contenidos no autorizados en la plataforma es la instalación de filtros que bloqueen todos aquellos materiales (vídeos, música, fotografía, textos) que no hayan sido licenciados a la plataforma.

Partiendo de esta atribución de responsabilidad por los contenidos de los usuarios, el Art. 17 ofrece a estas plataformas una exención de responsabilidad para el caso en que puedan demostrar:(a) haber hecho los mejores esfuerzos para obtener una licencia (algo que en la práctica puede resultar muy difícil); (b) haber hecho los mayores esfuerzos para garantizar que no están disponibles en la plataforma los contenidos sobre los que les hayan dado información los titulares de derechos; y (c) haber retirado los materiales supuestamente infractores cuando reciban una notificación en este sentido, y además haber hecho los mejores esfuerzos para evitar que ese contenido vuelva a subir a la red.

La imposición de responsabilidad, junto con los requisitos exigidos para evitarla, supone en la práctica que las plataformas se vean obligadas a emplear filtros de reconocimiento de contenidos, de modo similar a los que voluntariamente ya emplea YouTube con su sistema de Content ID. Las consecuencias prácticas están por ver, pero cabe adivinar un panorama de mayor restricción en los contenidos disponibles en estas plataformas, en parte por la dificultad de que los filtros aprecien de modo eficaz que determinados contenidos no deben bloquearse porque están amparados por excepciones y limitaciones a los derechos de autor.