Infrautilizados, desinformados, ineficaces.
Así se sienten algunos de los verificadores contratados por Facebook para acabar con las noticias falsas y la información errónea.
Hace poco más de dos años, Facebook puso en marcha un programa de verificación de datos. Sin embargo, fuentes dentro de las agencias que trabajan en la iniciativa creen que no todo está funcionando bien.
Dos de ellas, líderes en verificación de datos, dejaron recientemente de trabajar para la red social.
«¿Estamos provocando un cambio?, se pregunta uno de los verificadores de datos, basado en América Latina, que habló con David Lee, reportero de tecnología de la BBC en Estados Unidos.
«¿Está teniendo impacto? ¿Se lee nuestro trabajo? No creo que sea tan difícil mantener un seguimiento de esto. Pero no es una prioridad para Facebook».
Algunos contaron que Facebook no estaba escuchando sus comentarios sobre cómo mejorar la herramienta para examinar el contenido marcado como «fake news».
A pesar de esto, Facebook dijo que está satisfecho con el progreso realizado hasta el momento, apuntando a una investigación externa* que sugería que la cantidad de noticias falsas compartidas en su plataforma estaba disminuyendo.
Cómo funcionan los grupos de verificación
Facebook le pide a los verificadores que firmen un acuerdo de confidencialidad para evitar que hablen públicamente sobre algunos aspectos de su trabajo.
Para no identificar la fuente de información, la BBC decidió dejar sus fuentes como anónimas y evita usar números específicos que pueden ser exclusivos de contratos individuales.
Facebook lanzó su programa de verificación en diciembre de 2016, un mes después de la elección de Donald Trump como presidente de Estados Unidos.
Muchos sintieron que su victoria se vio impulsada por la desinformación que circulaba en redes sociales, principalmente en Facebook.
La red social tiene ahora 43 organizaciones de verificación de datos trabajando alrededor de todo el mundo, cubriendo 24 idiomas diferentes.
Estos grupos usan una herramienta creada por Facebook para examinar el contenido etiquetado como potencialmente falso o engañoso.
Esa etiqueta la realiza un algoritmo de Facebook o los propios usuarios que reportan artículos que consideran erróneos.
Entonces, los verificadores investigan las reclamaciones y producen su propio «artículo explicativo».
Si el contenido se considera engañoso o completamente falso, los usuarios que lo publicaron reciben una notificación y, como resultado, la publicación se mostrará con menos prominencia.
Para aquellos que pretenden compartir el material revisado, un mensaje les avisa sobre las consideraciones de los verificadores.
Por cada artículo explicativo, Facebook paga un monto fijo, que en Estados Unidos se sitúa alrededor de los US$800.
Para los verificadores en los países en desarrollo, el pago se estima en un cuarto de ese monto.
Límite de pago
Lo que no se reportó previamente, sin embargo, es que a principios de 2019, Facebook implementó un límite: un máximo mensual de artículos explicativos a partir del cual las agencias de verificación no recibirían un pago por su trabajo.
Normalmente ese límite es de 40 artículos por mes y por agencia, incluso si el grupo trabaja en varios países.
Es una fracción del total del trabajo: una captura de pantalla de la herramienta de Facebook, tomada la semana pasada por un verificador de datos en un país de América Latina, mostró 491 artículos en la cola esperando a ser revisados.
Facebook confirmó lo que llamó una «estructura basada en incentivos» para los pagos, que aumenta en períodos de mayor actividad, como una elección.
La compañía dijo que el límite se creó de acuerdo con las capacidades de las firmas de verificación, y que los límites rara vez se excedían.
Un editor le dijo a la BBC que su personal dejaría de enviar sus comentarios al sistema de Facebook una vez que se acerque el límite, para no verificar los hechos de forma gratuita.
«Todavía estamos trabajando en cosas, pero lo aguantamos hasta el siguiente mes», dijeron.
Descontento
A principios de año, la agencia de verificación de datos Snopes, con sede en Estados Unidos, terminó su trabajo con Facebook.
«Queremos determinar con certeza que nuestros esfuerzos para ayudar a cualquier plataforma en particular son una práctica positiva para nuestra comunidad online, publicaciones y personal», dijo Snopes en un comunicado en ese momento.
La declaración de Snopes se hizo eco de las preocupaciones de quienes aún formaban parte del programa.
«No sabemos a cuántas personas se ha llegado», dijo un editor.
«Siento que nos falta información muy importante sobre quién publica constantemente noticias falsas en Facebook».
Cuando se conoció la noticia sobre el final de la asociación, la editora de Snope, Brooke Binkowski, le dijo a la BBC que sentía que Facebook era demasiado controlador sobre las empresas de verificación.
«Facebook no puede manejar ningún tipo de rechazo, ningún tipo de crítica pública», dijo, y agregó que creía que el programa de verificación de Facebook había sido «mal manejado».
Claire Wardle, directora de First Draft, una organización que respalda los esfuerzos para combatir la información falsa en internet, dijo que la única forma en que Facebook realmente puede resolver sus problemas es dar a los socios externos unmayor acceso a su tecnología.
«Desde el principio, mi frustración con el programa de Facebook es que no es un sistema abierto», dijo a la BBC.
Una portavoz de Facebook le dijo a la BBC que la firma trabaja para aumentar la calidad de sus herramientas de verificación de datos, y que era más abierta con respecto a los datos.
«Sabemos que siempre hay espacio para mejorar», dijo la compañía.
«Por lo tanto, continuaremos teniendo conversaciones con los socios sobre cómo podemos ser más efectivos y transparentes sobre nuestros esfuerzos».
Tomado de BBC Mundo