TikTok, X, Google o Facebook deben moderar sus contenidos por nueva ley de UE

Es una herramienta para proteger la libertad de expresión y a los ciudadanos

24.08.2023 | tiempo de lectura: 3 minutos

Hasta 19 grandes plataformas o buscadores digitales, entre ellas TikTok, X (antes Twitter), Google o Facebook, deben, a partir de este viernes, moderar sus contenidos al empezar a aplicarse las disposiciones de la Ley de Servicios Digitales de la Unión Europea (UE). Es una herramienta para proteger la libertad de expresión y a los ciudadanos.

La ley está en vigor desde el pasado 16 de noviembre pero es a partir del 25 de agosto cuando van a tener que adaptarse a ella 19 grandes compañías, las cuales cumplen el requisito de contar con al menos 45 millones de usuarios activos mensuales.

Se trata de X, TikTok, Instagram, Wikipedia, Zalando, AliExpress, Amazon, la AppStore de Apple, Bing, Booking, Facebook, Google Search, Google Play, Google Maps, Google Shopping, LinkedIn, Pinterest, Snapchat y YouTube.

Deberán, en concreto, cumplir con los nuevos requisitos de transparencia sobre el contenido en internet y protección de los menores.

“La moderación del contenido no significa censura. En Europa no habrá un Ministerio de la Verdad. Lo que habrá será transparencia. En procesos algorítmicos, bots y anuncios personalizados”, según Breton.

Esta legislación se extenderá a otras plataformas de menor tamaño en febrero y antes, en dos meses, las 19 grandes deberán publicar sus primeros informes de transparencia.

“Han tenido tiempo suficiente para adaptar sus sistemas a sus nuevas obligaciones: en materia de transparencia, privacidad, retirada de contenidos y productos ilegales, protección de los usuarios vulnerables, lucha contra la desinformación”, indicó el comisario francés en unas declaraciones enviadas a la prensa.

La Comisión ofreció realizar una pruebas de estrés a las compañías para “ayudarles a entender bien lo que tenían que hacer”, y “ahora empieza la verdadera prueba”, recalcó Breton, que en los últimos meses ha visitado las sedes de las principales plataformas para abordar la aplicación de las nuevas normas.

En qué consiste

La ley de servicios digitales obliga a las plataformas a eliminar rápidamente el contenido ilegal que exista en sus páginas web, siempre y cuando tengan conocimiento de ellos.
Además, los sistemas de inteligencia artificial tendrán que especificar si el contenido que muestran son vídeos o imágenes falsas, siempre y cuando supongan un riesgo para la salud, tanto física como mental.

La protección de la infancia será una prioridad, al igual que la lucha contra la desinformación, incluida la propaganda prorrusa y, en particular, de cara a las elecciones europeas del año próximo.

Si un contenido resulta moderado, el autor recibe información detallada sobre ello y también sobre cómo apelar. La plataforma tiene que poner en marcha un sistema de apelaciones y el regulador nacional, si es necesario, se pronunciará en última instancia: si da la razón al usuario, la plataforma deberá restaurar el contenido y pagar por los costes.

Las empresas tendrán además que explicar a los usuarios por qué les recomiendan contenido en función de su perfil (deberán ofrecer la posibilidad de que la información que ven no esté basada en sus datos personales) y estarán obligadas a especificar claramente si una información tiene carácter publicitario, así como quién es su promotor.

También les prohibirá mostrar publicidad personalizada a los menores de edad.

En la misma línea, la norma prohíbe el uso de «patrones oscuros», trucos diseñados para engañar y manipular a los consumidores para que tomen decisiones probablemente contrarias a sus intereses.

Las compañías tendrán que hacer informes anuales para comprobar que cumplen con estos requisitos y tanto las autoridades como investigadores externos podrán tener acceso al diseño de sus algoritmos, que determinan el contenido que los usuarios ven en internet.

Control y multas

Si las plataformas incurren en incumplimientos de estos requisitos, la ley contempla la posibilidad de introducir multas de hasta el 6 % de su facturación anual a nivel global.

La Comisión Europea ha puesto en marcha en Sevilla el nuevo Centro Europeo por la Transparencia Algorítmica (ECAT, por sus siglas en inglés) integrado en la infraestructura del Centro Conjunto de Investigación, que aportará análisis técnicos y evaluaciones de algoritmos para comprobar si las plataformas cumplen con los requisitos.

La ley también confiere a la Comisión nuevos poderes para hacer cumplir la DSA, investigar y sancionar a las plataformas cuando esté justificado. “Ahora son entidades reguladas del mismo modo que las instituciones financieras”, apuntó Breton.

La Organización Europea de Consumidores (BEUC) recalcó en un comunicado que esta ley es “imprescindible” para que las plataformas no sigan “haciendo la vista gorda” ante contenidos ilegales y lamentó que empresas como Amazon o Zalando estén combatiendo su designación como grandes plataformas.

Desde Google, aseguran que han realizado adaptaciones y que se han “adelantado al entorno normativo actual”.

“Cumplir con la DSA no es un castigo, es una oportunidad para que estas plataformas de internet refuercen su valor de marca y reputación como un sitio de confianza”, resumió el comisario francés.

EFE