La Ley de Servicios Digitales (Digital Service Act, DSA) aplica a todas las plataformas online que operan en la Unión Europea desde el 17 de febrero. No obstante, algunas de las más grandes compañías se atienen a la normativa desde agosto del año pasado, un periodo en el que, según Bruselas, TikTok podría haber infringido la directiva comunitaria.
La Comisión analiza la actividad de TikTok desde septiembre
Y para determinarlo la Comisión Europea ha abierto un procedimiento formal para evaluar si la red social de ByteDance ha incumplido la ley en los terrenos vinculados con la protección de menores, la transparencia publicitaria, el acceso a datos para investigadores, o la gestión de riesgos de diseño adictivo y contenidos nocivos.
La investigación se apoya en un estudio preliminar realizado hasta el momento que ha incluido un análisis del informe de evaluación de riesgos enviado por TikTok en septiembre de 2023, y las solicitudes formales de información de la Comisión a TikTok acerca de contenidos ilegales, protección de menores y acceso a datos.
“La protección de los menores es una de las principales prioridades de aplicación de la DSA”, ha apuntado Thierry Breton, Comisario de Mercado Interior de la Comisión Europea, en un comunicado. “Como plataforma que llega a millones de niños y adolescentes, TikTok debe cumplir plenamente con la DSA y tiene un papel particular que desempeñar en la protección de los menores online”.
Áreas de investigación
El procedimiento de Bruselas va a poner el foco en el cumplimiento de las obligaciones de la Ley relacionadas con la evaluación y mitigación de riesgos sistémicos, en términos de efectos negativos reales o previsibles derivados del propio diseño de TikTok. Esto incluye una evaluación de los algoritmos, que podrían estar estimulando adicciones conductuales o creando los llamados “agujeros de conejo”, es decir, un proceso infinito de navegación. En este caso, consumo infinito de contenido de TikTok.
Dicho análisis, tal y como explican desde la Comisión, es necesario para contrarrestar los potenciales riesgos del sistema TikTok para el ejercicio del derecho fundamental al bienestar físico y mental de la persona, el respeto de los derechos de la infancia, así como su impacto en los procesos de radicalización. A este respecto, la investigación determinaría si las medidas vigentes, en particular las herramientas de verificación de edad utilizadas por TikTok para impedir el acceso de menores a contenido inapropiado, pueden no ser razonables, proporcionadas o efectivas.
El objetivo del proceso también será analizar el cumplimiento de las obligaciones de la DSA de implementar medidas apropiadas y proporcionadas para garantizar un alto nivel de privacidad y seguridad para los menores. Se atenderá especialmente a la configuración de privacidad predeterminada para menores como parte del diseño y funcionamiento de los sistemas de recomendación de la plataforma.
Noticias Relacionadas
Nepal prohíbe TikTok alegando que “altera la armonía social”
{"id":25292,"titular":"Nepal prohíbe TikTok alegando que “altera la armonía social”","prefijo":null,"slug":null,"image":"https://www.reasonwhy.es/media/cache/noticia_relacionada/media/library/tiktok-nepal.jpg","path":"/actualidad/nepal-prohibe-tiktok-alega-altera-armonia-social"}Además, la presencia de publicidad también será objeto de la investigación, puesto que se analizará el cumplimiento de las obligaciones respecto a proporcionar un repositorio confiable y con capacidad de búsqueda de los anuncios presentados en TikTok.
Por último, el organismo considerará las medidas tomadas por la aplicación para mejorar la transparencia y las presuntas deficiencias de la compañía a la hora de ofrecer acceso a los investigadores a los datos necesarios para conducir estudios e investigaciones.
Desde la Comisión apuntan que, de probarse incidencias en dichos puntos, constituirían infracciones de varios artículos de la ley. Tal y como recoge el texto, el incumplimiento de la normativa puede acarrear sanciones de hasta el 6% del volumen de negocios anual mundial de la plataforma. Además, el organismo también puede aplicar sanciones periódicas de hasta el 5% del volumen de negocios medio diario a nivel mundial por cada día de retraso en el cumplimiento de las soluciones, medidas provisionales y compromisos.
Según expresan desde Bruselas, la apertura de un procedimiento formal no prejuzga su resultado y se entiende sin perjuicio de cualquier otro procedimiento que la Comisión pueda decidir iniciar sobre cualquier otra conducta que pueda constituir una infracción. Asimismo, tampoco afecta a otras acciones emprendidas por otras autoridades bajo otros marcos regulatorios.
Una vez abierto este procedimiento, la Comisión continuará reuniendo pruebas, enviando solicitudes de información, realizando entrevistas o inspecciones. No se establece ningún plazo legal para finalizar el proceso, sino que su duración dependerá, entre otras cosas, de la complejidad del caso, el grado de cooperación de TikTok y su ejercicio del derecho de defensa.
TikTok asegura ser pionera en la implementación de medidas de protección de menores
La respuesta de TikTok
Por su parte, tal y como recoge TechCrunch, desde la compañía aseguran haber sido pioneros en la implementación de funciones y configuraciones para proteger a los adolescentes y mantener a los menores de 13 años fuera de la plataforma. “Continuaremos trabajando con expertos y la industria para mantener seguros a los jóvenes en TikTok y esperamos tener ahora la oportunidad de explicar este trabajo en detalle a la Comisión”, han señalado.
Además, explican que han respondido a todas las solicitudes de información anteriores de la Comisión, pero que aún no ha recibido comentarios sobre sus respuestas. También apuntan que aún no se ha aceptado una oferta que hicieron para que su personal interno de seguridad infantil se reuniera con los miembros de la Comisión.
De esta forma, TikTok se convierte en la segunda plataforma contra la que se abre una investigación formal por posible incumplimiento de la Ley de Servicios Digitales. El primero de estos procesos se inició el pasado mes de diciembre contra X -antes Twitter- para determinar infracciones relacionadas con la gestión de riesgos, la moderación de contenidos, los patrones oscuros, la transparencia publicitaria y el acceso a datos para investigadores.