Grietas en el cerco europeo a las plataformas - Alfa y Omega

Grietas en el cerco europeo a las plataformas

La UE es la primera jurisdicción donde los gigantes digitales están regulados, pero no siempre del mejor modo

Victoria Isabel Cardiel C.
Foto: Freepik.

Se acabaron los plazos y las evasivas. La Ley de Servicios Digitales (DSA) de la Unión Europea entró en vigor plenamente el pasado sábado para poner coto a los desmanes de las plataformas digitales operativas en territorio europeo. Desde el 25 de agosto ya se aplicaba a las que tuvieran más de 45 millones de usuarios, entre ellas Facebook, Amazon, Wikipedia o TikTok. Pero ahora han sido incluidas todas las demás entidades de servicios digitales, como Airbnb. Estos primeros seis meses de aplicación permiten que se puedan identificar ya algunos fallos.

La novedad fundamental de la normativa, que busca proteger mejor a los consumidores y sus derechos fundamentales, combatiendo, entre otros, la desinformación o la pornografía infantil, es que los gigantes digitales deben explicar con transparencia cómo moderan el contenido: «Antes el usuario se encontraba con una publicación suya bloqueada por la plataforma sin explicación; en cambio, esta norma busca que sepa por qué y además le da la posibilidad de impugnar su decisión», asegura la experta en derechos digitales de la Federación de Consumidores y Usuarios (CECU), Anabel Arias. También desde agosto, Instagram o X (antiguo Twitter) tienen además del botón de denunciar contenido otro adicional para el contenido ilegal en la UE. Se pide a quien lo detecta «que señale sus argumentos, qué ley se estaría violando o si hay algún antecedente jurisprudencial».

Asimismo, se han incorporado obligaciones específicas en la publicidad para que los usuarios sepan que un post concreto se trata de un anuncio y quién está detrás del mismo. Sin embargo, sigue sin resolverse la exposición de los menores a estas estrategias de venta, ya que las plataformas «no tienen capacidad de verificar la edad de quien las está usando», asegura Arias.

¿Qué contenidos se censuran?

Mucho más crítico se muestra Borja Adsuara, abogado, consultor y profesor universitario, experto en derecho digital y protección de datos. Plantea el debate de la aplicación de esta normativa en términos de límites a la libertad de expresión. Desde hace seis meses, las empresas digitales pueden «borrar prácticamente todo lo que quieran, mientras que lo digan en sus términos y condiciones de uso», señala.

Hasta ahora carecían de esta competencia porque «no se las consideraba un medio de comunicación». Sin embargo, como las propias plataformas han reconocido, «utilizan algoritmos de recomendación de contenidos; es decir, premian unos y censuran otros», lo que las dota de ciertos poderes editoriales. Antes de la entrada en vigor de la DSA solo tenían la obligación de retirar contenidos netamente ilegales, porque su difusión —como en el caso de la pornografía infantil— estaba considerada como un delito. En cambio, en este momento son estas plataformas las que deciden qué mensajes suprimir. Y precisamente ahí es donde está el problema: «Eliminar un contenido ilegal no es censura, es una obligación. Pero si no es ilegal, ¿por qué lo borran?», se pregunta el experto.

La Constitución española dictamina que la libertad de expresión tiene tutela judicial efectiva. Por eso, a su juicio, lo preocupante es que, «ahora, en vez de un juez son las redes sociales, a través de sus algoritmos, las que cancelan un contenido». Adsuara, que también es miembro del Comité de Expertos de la Carta de Derechos Digitales, aboga por que haya un organismo sectorial independiente, formado por un jurado de profesionales, «que pueda revisar las quejas de usuarios por el borrado de determinados contenidos por una red social o plataforma». Un reto complejo en vista de los millones de contenidos que se suben cada segundo a la red.

Contra las cuerdas

Todas las plataformas digitales deben cumplir a rajatabla la Ley de Servicios Digitales (DSA) si quieren evitar costosas multas, que pueden llegar hasta el 6 % de su volumen de negocios mundial. En el caso de las pequeñas plataformas, la supervisión de su cumplimiento recae en organismos nacionales: en España, la Comisión Nacional de los Mercados y la Competencia (CNMC) y la Agencia de Protección de Datos. La Comisión Europea (CE) es la que vigila a las grandes. En diciembre Bruselas abrió un procedimiento administrativo contra la red social X bajo la sospecha de que no estaba combatiendo el contenido ilegal después del ataque de Hamás a Israel el 7 de octubre. Y el pasado lunes le tocó a TikTok por falta de transparencia en la gestión de los anuncios y por no tomar las medidas necesarias para proteger al usuario menor de edad de un diseño que genera comportamientos adictivos. El nuevo marco regulatorio de la UE no establece un plazo determinado para concluir la investigación, tras la que podrá decidir sanciones económicas.