Este martes Meta tomó la polémica decisión de poner fin al programa de verificación de datos. Mark Zuckerberg, el fundador de Facebook, se une a un grupo cada vez mayor de ejecutivos tecnológicos que están abandonando puestos que han ocupado durante años en un esfuerzo por congraciarse con el presidente electo de Estados Unidos, Donald Trump, quien gobernará con el apoyo de un republicano. controla el Congreso y un Tribunal Supremo de mayoría conservadora para el que ha nombrado a tres de sus siete miembros.
La red social de Zuckerberg está dando ahora el paso de cancelar un programa de verificación que lanzó en 2016, pocos días después de que Joel Kaplan, quien fue asesor del expresidente estadounidense George W. Bush y cercano a otros, se uniera a la compañía. Presidente, Donald Trump. El gigante de las redes sociales dejará de utilizar moderadores de contenidos y, al igual que su competidor X, el antiguo Twitter, delegará en los usuarios la inclusión de notas o correcciones en las publicaciones. Kaplan reemplazó a Nick Clegg, el ex viceprimer ministro británico, como jefe de asuntos globales hace cuatro días para facilitar el acercamiento con Trump.
El creador de Facebook ya acudió en noviembre a Mar-a-Lago, la residencia de Trump en Florida, para una cena con el cercano jefe de Estado en vísperas del Día de Acción de Gracias. Meta también ha anunciado una donación de 1 millón de dólares para las celebraciones de la toma de posesión de Trump el 20 de enero, una medida que ha sido precedida por Amazon, Uber y el director ejecutivo de Open AI, Sam Altman.
La medida se produce cuando Meta anunció la incorporación de Dana White, empresario, presidente de la organización de artes marciales UFC y un destacado aliado de Trump, a su junta directiva. También se produce semanas después de que el megamillonario Elon Musk, propietario de X, retuiteara un mensaje criticando a Facebook por censurar las opiniones conservadoras.
En un vídeo que acompaña al anuncio del fin de la verificación de datos en el blog de Facebook, Zuckerberg justifica la decisión argumentando que los verificadores de datos profesionales también tienen sus prejuicios. También reconoce que la medida es consecuencia de la victoria electoral de Trump. “Hemos llegado a un punto en el que hay muchos errores y mucha censura”, explica el director ejecutivo de Meta.
“Las recientes elecciones también parecen un punto de inflexión cultural para volver a priorizar la expresión. Así que volvemos a nuestras raíces, centrándonos en reducir errores, simplificar nuestras políticas y restaurar la libertad de expresión en nuestras plataformas”. “Recalibraremos nuestros filtros de contenido para que sean mucho más exigentes antes de eliminar contenido”, añadió.
De esta manera, Meta encaja en el molde de Donald Trump y su recién nombrado jefe del Departamento de Eficiencia Gubernamental, Elon Musk, propietario de Tesla y X, donde el magnate suprimió la moderación tras comprar la red social.
En el blog de facebookKaplan también argumentó las razones: “En los últimos años, hemos desarrollado sistemas cada vez más complejos para gestionar el contenido en nuestras plataformas, en parte como respuesta a la presión social y política para moderarlo. Este enfoque ha ido demasiado lejos. Por muy bien intencionados que hayan sido muchos de estos esfuerzos, se han expandido con el tiempo hasta el punto en que cometemos muchos errores, frustramos a nuestros usuarios y, con demasiada frecuencia, obstaculizamos la libertad de expresión que nos propusimos permitir. “Se censura demasiado contenido inofensivo, demasiadas personas son encerradas injustamente en la ‘cárcel de Facebook’ y, a menudo, somos demasiado lentos para responder cuando lo hacen”.
Kaplan invoca la libertad de expresión para justificar la medida. “En plataformas donde miles de millones de personas pueden tener voz, todo lo bueno, lo malo y lo feo sale a la luz. Pero eso es libertad de expresión”.
Con esta premisa, Meta ha anunciado el fin del programa de verificación de datos de terceros, activo desde 2016, y la transición a las notas comunitarias. El programa se basó en la participación de organizaciones independientes de verificación de datos para complementar, aclarar o etiquetar y limitar la información publicada en la red social. “Con el tiempo, terminamos con una gran cantidad de contenido verificado. Un programa que estaba destinado a informar, con demasiada frecuencia, se convirtió en una herramienta para censurar”, afirma.
La verificación independiente será sustituida por un sistema similar al de X, lo que en la práctica supone abandonar la moderación de contenidos. El nuevo modelo se llama Notas Comunitarias, que delega la evaluación de los mensajes a los usuarios y requerirá un acuerdo específico entre ellos para que su decisión sea efectiva sobre los mensajes.
Desde este martes está abierto a Facebook, Instagram y fibras —tres de las redes sociales líderes en el mundo y con cerca de 3.000 millones de usuarios— será parte de la comunidad de notas, que se lanzará en Estados Unidos este mes y se expandirá a otros países.
El gigante tecnológico también ha anunciado el traslado de sus equipos de moderación de contenidos del progresista estado de California al estado republicano de Texas. Sus sistemas de moderación automática se centrarán más en delitos considerados especialmente graves, como el terrorismo.
De esta forma, el sistema que ha permitido eliminar millones de publicaciones (el 1% de los contenidos, según Meta) desaparece con el argumento de que “se ha aplicado en exceso, limitando el debate político legítimo y censurando muchos contenidos irrelevantes”. Zuckerberg ya había expresado su pesar en el pasado por lo que ahora considera una vigilancia excesiva del contenido relacionado con Covid durante la pandemia en sus plataformas.
Temáticamente, la medida afectará a contenidos muy sensibles donde cada día se cosechan fraudes y desinformación. “Estamos eliminando una serie de restricciones sobre cuestiones como la inmigración, la identidad sexual y el género que son objeto de frecuentes discursos y debates políticos. No está bien que las cosas se digan en la televisión o en el Congreso, pero no en nuestras plataformas. Estos cambios de política pueden tardar varias semanas en implementarse por completo”, argumenta el nuevo director de asuntos globales.
Infracciones graves
La eliminación de la moderación automática de contenidos se aplicará en particular a la información política, donde, según Meta, se han registrado “muchos errores” y sólo se intervendrá si los usuarios detectan un problema. Serán detenidos por lo que la plataforma considera “delitos de alta gravedad”, relacionados con terrorismo, explotación sexual infantil, drogas, estafas y estafas.
El equipo de revisión de errores de moderación se reforzará y requerirá la participación de varias personas e incluso un modelo de inteligencia artificial para eliminar el contenido. De esta forma, se potenciará y personalizará la interacción con el contenido político con el uso de algoritmos de recomendación.
Las primeras reacciones no se hicieron esperar. “La verificación de hechos y la moderación no es algo que deba dejarse en manos de unos pocos controladores que pueden aplicar fácilmente sesgos a sus decisiones. “Es un proceso democrático que debería dejarse en manos de muchos”, escribió la directora ejecutiva de X, Linda Yaccarino, en un mensaje en tu red social. “Es un movimiento inteligente por parte de Zuck y algo que espero que otras plataformas emulen”.
Todo lo contrario es la opinión de Ross Burley, cofundador de la ONG contra el fraude y el abuso en Internet denominada Center for Information Resilience, que considera la decisión de Meta “un gran paso atrás para la moderación de contenidos en un momento en el que “la desinformación y los contenidos nocivos son cada vez más comunes”. evolucionando más rápido que nunca.”
“Si bien los esfuerzos para proteger la libertad de expresión son vitales, eliminar la verificación de hechos sin una alternativa creíble corre el riesgo de abrir las compuertas a narrativas más dañinas. La lucha contra la desinformación no debe realizarse a expensas de la libertad de expresión. Las plataformas pueden y deben lograr un equilibrio entre la libertad de expresión y la seguridad pública; Sin embargo, esta medida parece más una cuestión de apaciguamiento político que de una política inteligente. “Ahora es esencial que la sociedad civil, los gobiernos y los organismos de control independientes aumenten su control de los espacios en línea a medida que las plataformas eliminan salvaguardias clave”, dice Burley.
Los verificadores no censuran
El trabajo de los revisores no tiene nada que ver con el trabajo de censura o la inclusión de algún sesgo en la conversación. Su trabajo es objetivo y consiste en identificar contenidos que no se corresponden con la realidad o con una clara tendencia a la desinformación. Están sujetos a rigurosos exámenes cada año o cada dos años por parte de organizaciones internacionales independientes que evalúan que el método de etiquetado de contenidos es metodológico. Una vez identificada la información errónea, no tienen poder para cancelar o eliminar el contenido. Su trabajo es alertar a los responsables de la red social, que son, al fin y al cabo, quienes deciden qué hacer con el contenido.
(TagsToTranslate)Meta(s)Facebook(s)Mark Zuckerberg(s)Twitter(s)Redes socialesLibertad de expresión(s)Elon Musk(s)Donald Trump(s)Tecnología
Este contenido incluye información obtenida de