Las estafas y los comentarios francamente racistas u odiosos son cada vez más comunes en las redes sociales. Los usuarios pueden informar a las propias plataformas sobre el contenido que consideran problemático, pero a veces no responden o se niegan a eliminarlo. También puede ocurrir lo contrario: que la plataforma decida eliminar artículos periodísticos relacionados, por ejemplo, con terrorismo, o publicaciones de desnudos que considere inapropiadas. Las empresas tecnológicas ya no tienen la última palabra en estos asuntos: la semana pasada Centro Europeo de Apelacionesel organismo al que debemos acudir cuando no estamos de acuerdo con las decisiones de las redes sociales. De momento, sólo acepta casos relacionados con Facebook, TikTok y YouTube, pero está previsto ampliar su alcance para abarcar todas las aplicaciones.
Con sede en Dublín y una plantilla de 25 personas, la apertura de un centro de recursos estaba prevista en la Ley de Servicios Digitales (DSA), vigente desde agosto de 2023. El objetivo del reglamento, que afecta a las grandes plataformas digitales que operan en el territorio comunitario, es proteger a los consumidores, lo que significa luchar contra la desinformación y la distribución de contenidos ilegales. Si se descubre este tipo de contenido, las empresas deben eliminarlo inmediatamente o correr el riesgo de recibir enormes multas (hasta el 6% de su facturación global, que para algunas empresas puede alcanzar decenas de miles de millones).
Las decisiones del Centro de Apelaciones no son vinculantes. La organización se postula como el lugar donde las grandes empresas tecnológicas y los individuos u organizaciones cívicas pueden resolver sus diferencias antes de que el problema se agrave. Pero el hecho de que no sean obligatorios no significa que sean inofensivos. “Si las plataformas no cumplen con nuestras decisiones, tendrán que justificar más tarde el motivo ante el regulador. Por eso, creo que incluso una decisión que no se implementa tiene mucho valor”, explica a EL PAÍS Thomas Hughes, director general de la recién creada organización.
Actualmente, el Centro acepta casos en seis idiomas (inglés, francés, español, italiano, alemán y holandés), aunque irá ampliando progresivamente su alcance para abarcar todas las lenguas oficiales de la UE. La organización se financiará a través de las tasas cobradas por las plataformas (95 euros por caso). Actualmente no proporcionan estimaciones de cuántas demandas recibirán por año. A medida que aumenten la plantilla, a su reseña también se sumarán otras redes sociales, como Instagram, X o Threads, en las que el texto tiene más peso. Según la agencia, comenzaron con Instagram, TikTok y YouTube porque el volumen potencial de casos podría ser mayor que en Instagram o Threads.
Dónde poner límites
Los británicos son conscientes de que la gran mayoría de los usuarios desconocen la existencia del Centro de Apelaciones. De hecho, muchos de ellos ni siquiera son conscientes de que pueden denunciar contenidos problemáticos en las redes sociales y que deben responder. O que cada plataforma tiene sus propios códigos de conducta, que fijan por iniciativa propia. ¿Tendría sentido que todas las redes impongan las mismas reglas? “Ya lo hacen de facto”, dice Hughes. “De hecho, el mundo online es una extensión del mundo offline y lo que es ilegal allí también lo es en el ámbito digital. El mínimo común denominador son los derechos humanos, que están codificados en toda la legislación nacional. Sobre esta base se añaden capas específicas para cada plataforma. Creo que toda red social debe encontrar el equilibrio entre maximizar el derecho de expresión, pero con límites.”
La clave es dónde se establecen estos límites. “Algunas plataformas son más permisivas que otras y eso está bien. Siempre y cuando no se traspasen algunas líneas rojas”, subraya. La incitación a la violencia, los mensajes que difundan el odio contra cualquier grupo y los bulos y la desinformación son inaceptables.
El contenido sexualmente explícito, siempre que sea consensual, es perfectamente legal. Algunas plataformas, como X, transmiten películas porno enteras; Otros, como Facebook o Instagram, ni siquiera permiten ver el pezón de la mujer (los hombres sí lo hacen). Incluso en esos casos hay lugar para la protesta. “Hay casos en los que se eliminan publicaciones que muestran síntomas de cáncer de mama, a pesar de que incluso las plataformas con las políticas más restrictivas permiten ver los senos si el objetivo es concienciar al público sobre esta enfermedad. El usuario que proteste por esta decisión tendrá derecho”, afirma Hughes.
como funciona
Cada caso, afirma el ejecutivo, tiene sus propias características, por lo que debe analizarse por separado. Los usuarios que no estén satisfechos con una decisión de contenido pueden iniciar sesión en el sitio web del Centro de Apelaciones y llenar un formulario en el que manifiesten y justifiquen su queja. Se les abonará una “cuota simbólica” de cinco euros, que se devolverá si la organización acepta. “Cualquier persona que presente una disputa elegible (es decir, presentada por un ciudadano europeo) recibirá un resultado. El Centro de Apelaciones manejará una variedad de disputas, como acoso e intimidación, desinformación, discurso de odio e imágenes y videos alterados”, describe Hughes.
El equipo de revisores expertos en políticas de la plataforma solicitará a la plataforma (actualmente Instagram, TikTok o YouTube) el post en cuestión y todos los datos relacionados con el mismo. Con esta información valorarán si la decisión tomada estuvo acorde con sus políticas. “Dependiendo de la complejidad, el idioma, la situación, el contexto, la plataforma y el tipo de contenido, el caso se asigna a diferentes colegas. Toman una decisión. Si es un caso complejo, tenemos otros niveles de revisión que se pueden realizar. Al final emitiremos una decisión que, quiero subrayar, no es vinculante”, subraya Hughes, aunque añade que la empresa tendrá que informar de ello al regulador, que tendrá en cuenta las acciones.
Este proceso debe completarse dentro de los 90 días posteriores a la presentación de la apelación ante el Centro de Apelaciones. En caso de que el usuario no esté satisfecho con la decisión de la agencia, siempre puede acudir a los tribunales.
Fallos del sistema
Cada red social se encarga de ordenar lo que sucede en su propio patio trasero. La moderación de contenido es una de las partes más delicadas de su trabajo. Cuanto más exitosa sea una plataforma, más tráfico obtendrá y más probabilidades habrá de que algunos usuarios exploten. Las redes utilizan una combinación de herramientas automáticas y manuales para intentar detectar contenido problemático.
“Si miramos este trabajo como una pirámide, en la base se encuentran los métodos automáticos de revisión de contenido, que normalmente detectan muchas, muchas publicaciones que violan las reglas”, dice Hughes. Sin estas herramientas, afirma, las redes sociales, algunas de las cuales acumulan cientos de millones de comentarios cada día, serían un drenaje.
Siguiendo hacia abajo en la pirámide, llegarían los métodos de moderación manual, “importantes en casos más complejos o delicados”, y luego el Centro de Apelaciones. Luego vinieron los tribunales y arriba la Comisión con las multas. “Esperamos poder contribuir a hacer la vida más llevadera en las redes sociales”, afirma el británico.
¿Qué se puede esperar de esta nueva organización? Los expertos consultados se muestran cautos y la mayoría prefiere esperar a ver cómo funciona antes de valorarlo. “En teoría, el Centro de Apelaciones debería aliviar la acumulación de decisiones pendientes e introducir expertos independientes en el proceso de revisión de contenido. “Esto me parece interesante”, afirma la profesora Carmela Ríos, experta en redes sociales, periodismo móvil y desinformación. En unos meses veremos si es así.