Cuando se leen sus políticas, Meta, la empresa paraguas que arropa a Facebook, Instagram y Threads, pareciera tener un compromiso con la verdad. Sobre el papel, el gigante de las redes sociales asegura que trabaja para garantizar la transparencia y, a través de ello, preservar la democracia.
El Político
Cuando se pasa de la teoría a la realidad, el proceder de Meta contradice, sin embargo, sus autoproclamadas buenas intenciones. La compañía, creada y dirigida por el estadounidense Mark Zuckerberg, se escuda en la verificación de hechos y datos para censurar contenidos que pueden resultar contrarios a sus intereses.
Aunque Meta sostiene que tal actividad es hecha de manera independiente, por particulares que se especializan en el chequeo de información errónea y en la detección de las cuentas falsas que, muy a menudo, están detrás de esa actividad, lo cierto es que la empresa ha llegado a contratar los servicios de proveedores para que el “fact checking” se efectúe de una forma muy conveniente.
Un caso de estudio
Australia se encamina hacia una consulta refrendaria. A finales de este 2023, los ciudadanos deberán autorizar o no la creación de una instancia que representaría a los pueblos originarios en el Parlamento del país.
Ese órgano legislativo, que sería bautizado como Voz Aborigen e Isleña del Estrecho de Torres, podrá ver la luz si – y sólo si – los australianos aprueban una enmienda constitucional.
El cambio permitiría insertar, dentro de la actual Carta Magna, un apartado que reconocería a la Voz Aborigen e Isleña del Estrecho de Torres como el órgano parlamentario de las denominadas “primeras naciones”.
Aunque la iniciativa es ampliamente respaldada por los indígenas australianos, su favorabilidad entre los australianos en general ha ido en caída. Esa realidad es la que explicaría por qué Meta se ha asociado con grandes unidades, especializadas en la verificación de hechos y datos, para tachar como “falsas” notas editoriales que van contra la precitada enmienda constitucional.
Según adelantó Sky News Australia (uno de los medios con artículos tachados por Meta), la compañía de Zuckerberg se alió con el Royal Melbourne Institute of Technology (RMIT) y permitió, a esa academia, bloquear y desbancar varias de sus notas.
Al momento de ir “a por más”, Sky News Australia asegura que, según investigaciones por ellos realizadas, Meta paga 740.000 dólares anuales a la unidad de verificación de datos del RMIT para que ésta manipule, siempre en beneficio de los intereses de Meta, el proceso de “fact checking”.
En la actualidad, la unidad de verificación de datos del Royal Melbourne Institute of Technology no se encuentra certificada por la International Fact Checking Netwotk, una entidad que reúne a periodistas dedicados a la verificación de hechos y que avala a los institutos, organizaciones o grupos que se dedican a esa actividad.
También pasó en 2020
En octubre de 2020, “The New York Post”, uno de los diarios más reputados de Estados Unidos, publicó una primera plana que, para ese momento, laceraba los intereses electorales del Partido Demócrata.
Joe Biden, hasta aquel entonces ex senador y ex vicepresidente, estaba en la carrera hacia la Casa Blanca, mientras que su hijo, Hunter Biden, se mantenía en el centro de un torbellino de señalamientos.
El mayor de los hermanos Biden era acusado (como lo es aún hoy) de aprovecharse del apellido de su familia para obtener un generoso contrato con Burisma, una empresa ucraniana dedicada a la actividad gasífera.
Hunter recibía 50.000 dólares cada mes, por desempeñarse como miembro de la junta que solía administrar la mencionada corporación.
Aunque la noticia no era de nueva data, “The New York Post” metió el dedo en la llaga. El rotativo publicó una serie de correos electrónicos que acreditaban las aseveraciones contra Hunter Biden.
Tras la divulgación del contenido, Facebook, una de las redes sociales de Meta, salió al paso. Andy Stone, director de comunicaciones de Facebook y agente del Partido Demócrata, anunció que la plataforma estaba “reduciendo (la) distribución del artículo”.
Consciente o inconscientemente, Stone admitió que la red social se encontraba manipulando sus propios algoritmos, con la finalidad de reducir el alcance del artículo publicado por “The Post”.
Al anunciar sus acciones a través de Twitter (rebautizada ahora como X), Andy Stone afirmó que la nota sobre Hunter Biden resultaba “elegible para ser revisada por los socios de verificación de datos externos de Facebook”.