“Jurisdicción Digital” o Responsabilidad de los ISPs 2.0 | Wednesday 21 December 2016

La Unión Europea lleva unos años revisando la normativa en materia de propiedad intelectual, comercio electrónico y servicios de la sociedad de la información dentro de la iniciativa “Mercado Único Digital”. Dentro de este ambicioso programa se encuentra un apartado específico para la Responsabilidad de los Intermediarios de Internet bajo la sección “EU audiovisual rules and platforms” y otra norma que les podría afectar directamente, que es la del artículo 13 de la Propuesta de Directiva de Propiedad Intelectual en el Mercado Único Digital.

Estas propuestas, en las que no me voy a detener hoy, siguen la creciente tendencia desde hace algunos años de corresponsabilizar e involucrar aún más a los ISPs en la disminución de las actividades infractoras por los usuarios de sus servicios, una vez se ha superado su mero papel de alojadores neutros (en la mayoría de los casos) y que el régimen de exención de responsabilidad (safe harbor) tiene que pasar a una “versión 2.0”.

Como sabemos, la Directiva 2000/31/CE establecía un régimen de exención de responsabilidad para prestadores de servicios de la sociedad de la información por determinada información alojada en sus servidores (básicamente la proporcionada por sus usuarios), siempre y cuando no tuviesen conocimiento efectivo de la misma. El ISP no era responsable del contenido subido por sus usuarios hasta que no tuviese conocimiento de la ilicitud del mismo, generalmente a través de una comunicación.

Lo que en el inicio era un sistema sencillo e idóneo para el desarrollo de la sociedad de la información (a los ISP no se les podía ni se les puede imponer la labor de supervisar todo el contenido que se sube a sus redes o sistemas), tras más de 15 años de aplicación creo que es necesario revisarlo por los vicios que creo que han surgido y que voy a exponer en este post.

Inicialmente los ISP recibían dichas notificaciones poniéndoles en “conocimiento” a través de un burofax, un email o cualquier otro mecanismo que pudiera demostrar la existencia de la misma. A medida que estas comunicaciones se hicieron masivas, los grandes operadores de Internet como Google, Facebook, Twitter, etc., habilitaron formularios y herramientas para facilitar tales “puestas en conocimiento”, creando una suerte de “Jurisdicción Digital”. Así, quien quiera retirar resultados de búsqueda de Google tiene que ir aquí, quien quiera retirar una publicación en Facebook aquí, y quien quiera que Twitter quite un tuit aquí.

Una vez hecha la solicitud, el proveedor del servicio tiene la difícil labor de convertirse en juez y analizar si el contenido reclamado infringe o no derechos, lo cual puede hacer que incurra en responsabilidad (si decide no retirar el contenido y posteriormente un tribunal considera que infringía derechos) o a tomar una posición conservadora (retirando prácticamente todo lo que se solicita, para no asumir riesgos).

Como decía, un sistema que parecía el menos malo de todos los posibles, necesita ser revisado por los desajustes que se han provocado que, desde mi punto de vista, son los siguientes:

 

1. Falta de Transparencia: cuando interponemos una denuncia o una demanda, sabemos el proceso que seguirá la misma porque está en la Ley de Enjuiciamiento Civil o en la Ley de Enjuiciamiento Criminal. El proceso es relativamente tasado y transparente. Sin embargo, cuando enviamos una reclamación a Facebook, Google o Twitter, desconocemos qué ocurre “en las cocinas” de estos servicios, si la reclamación la revisará un humano o una máquina, si la revisa alguien con conocimientos jurídicos o no y, en general, los criterios que seguirán para aceptar o denegar la misma. En mi experiencia, creo que la mayoría de servicios tiene una primera capa tecnológica, que es la que analizará la reclamación y decidirá si retirar o no el contenido. Si no, no me explico que Google pueda dar curso a los 18 millones de solicitudes que recibe al día (y solo de propiedad intelectual).

Tras una capa tecnológica, creo (no tengo pruebas para demostrarlo) que hay una humana no excesivamente cualificada y solo en casos más complejos y técnicos, la solicitud la revisa un abogado. Generalmente nunca se identifican con nombre y apellidos, indicando solo su nombre de pila (John, Margaret, Christian…) y que pertenecen al equipo del ISP.

Llego a estas conclusiones tras más de 4 años enviando requerimientos de forma masiva y también por leer artículos como este de Wired, en el que explican cómo han florecido empresas en Filipinas especializadas en atender este tipo de requerimientos, que son tramitados por personal no jurídico.

 

2. Sin Recurso ni Revisión: en muchas ocasiones, el ISP deniega total o parcialmente la reclamación (no admitiendo, por ejemplo, 2 URLs de las 30 requeridas), dejando poco margen de movimiento al solicitante. Según el informe de transparencia de Google, en el último mes han rechazado el 2,9% de las reclamaciones, lo que supone más de 2.3 millones de URLs.

transparency1
Estoy convencido de que en prácticamente todas ellas había motivos para rechazarlas, pero también de que seguro que algunas de estas no deberían de haberse denegado, siendo la reclamación pertinente. En caso de rechazo, al reclamante no le queda otra opción que acudir a los tribunales. Inicia un procedimiento judicial (¿en EE.UU., en España…?) por una URL o un archivo ilícito… y con el único objetivo de que deje de estar disponible en un buscador o una red social. Antieconómico desde cualquier punto de vista.

 

3. Publicación de Reclamaciones: quizá lo que más hiere a los titulares de derechos es el proyecto Lumen Database (anteriormente ChillingEffects.org), promovido por varias universidades americanas y apoyado por grandes ISPs, el cual es un gran repositorio de contenido de contenido ilícito sobre el que se solicitó su retirada precisamente por este motivo. El Confidencial le dedicó un artículo hace un par de años.

Imagínate que varias páginas ofrecen tu obra pirateada, que todas estas páginas están indexadas en Google o publican posts en Twitter, tú requieres a estas para que retiren la información, pero no se limitan a eliminar tales datos, sino que facilitan tal información a una web (Lumen), que recopila todos los requerimientos recibidos por estos servicios y los hace accesibles públicamente y con un buscador. El resultado, con el pretexto de la transparencia, es EL repositorio de contenido ilícito. Para más inri, páginas como Google te facilitan el acceso a esa información supuestamente eliminada para que si no la encuentras en su buscador, lo hagas en la web de Lumen:

 

lumen1

Al pulsar en “Reclamación” te lleva a la misma, que incluye la información ilegal dispuesta de esta forma:

lumen2

Ni que decir tiene que me parece una iniciativa y una práctica abusiva, deleznable, sin justificación de ningún tipo y que intenta sostenerse en una supuesta transparencia que solo se aplica en aquellos aspectos que les favorecen (ver punto 1 de este post). Debería no solo prohibirse expresamente este tipo de bases de datos, sino cerrarse para evitar que la información ilegal desperdigada en varios medios sociales y servicios web, esté fácilmente accesible (y susceptible de ser buscada) en una única base de datos que nada aporta a la Sociedad de la Información.

 

4. Conductas abusivas: hecha la ley, hecha la trampa. El negocio de las notificaciones de retirada de contenido se ha convertido en una cuestión de volumen; los principales notificadores necesitan enviar cientos de miles de solicitudes diarias para conseguir dar la sensación de que “quitan” más contenido que nadie.

Determinadas obras no tiene excesiva presencia pirata en Internet, por lo que algunas organizaciones sin escrúpulos comenzaron a notificar la eliminación de URLs inexistentes, con una sintaxis “pirata” incluyendo términos comunes en este sector (“DVDrip”, “720p”, “Xvid”, etc.).

Parece que lo intentaron, no recibieron oposición y desde hace un par de años determinadas organizaciones comunican masivamente la retirada de URLs inexistentes, que les permiten dar de cara al cliente la sensación de que eliminan mucho contenido, creando una apariencia de (falsa) efectividad (y necesidad de sus servicios). Un ejemplo, el siguiente:

 

buscador
Y así hasta 5.000 URLs inexistentes en un mismo día para un notificador. Si de una película se pueden llegar a retirar 2 o 3 mil URLs reales en varios meses, utilizando esta “práctica” se llegan a esas cifras a diario, de nuevo, creando una falsa sensación de que la obra esta muy pirateada y de que gracias a las acciones del notificador, dicha presencia ilegal se ha reducido drásticamente. Picaresca 2.0.

 

Creo firmemente en el régimen de exención de responsabilidad de los prestadores de servicios de la sociedad de la información y en la ausencia de filtros o revisiones previas obligatorias, pero el sencillo sistema que inicialmente se creó ya se ha visto superado por prácticas difíciles de justificar y que en nada benefician al desarrollo de Internet y a la defensa de derechos en la misma. Dentro de este plan de renovar el régimen de responsabilidad de los ISPs se deberían tener en cuenta estas prácticas para mejorar el sistema y otorgar funciones de revisión y supervisión a un órgano independiente para evitar prácticas abusivas o dañinas para los intereses de diferentes colectivos. Desafortunadamente veo que hay poco publicado sobre estas prácticas y aún menos debate en relación a ellas. Esperemos que cambie en el año que ahora empieza.

Dejar un comentario