Facebook no es ajeno a los focos. Aunque la empresa ha sido criticada en varias ocasiones en los últimos años por su papel en la difusión de información errónea, especialmente en relación con las elecciones de 2016, los últimos dos meses han sido especialmente turbulentos, ya que una denunciante y altos funcionarios han sido llamados a declarar ante el Congreso tras la publicación de investigaciones y documentos internos filtrados.
Estas revelaciones hechas a la Comisión de Bolsa y Valores (SEC, por su siglas en inglés) y proporcionadas al Congreso en forma redactada por el asesor legal de la denunciante de Facebook, Frances Haugen, han arrojado nueva luz sobre el funcionamiento interno del gigante tecnológico. Un consorcio de 17 organizaciones de noticias estadounidenses, incluida CNN, ha revisado las versiones redactadas de los documentos recibidos por el Congreso.
También ha compartido algunos de los documentos con The Wall Street Journal, que ha publicado una investigación en varias partes que demuestra que Facebook era consciente de los problemas de sus plataformas.
Facebook se ha opuesto a las afirmaciones de Haugen, y su CEO, Mark Zuckerberg, llegó a publicar una declaración de 1.300 palabras en la que sugería que los documentos se habían escogido para presentar una descripción engañosa de la empresa.
Estos son algunos puntos clave de las decenas de miles de páginas de documentos internos.
Difusión de información errónea
En una de las revelaciones de la SEC, Haugen alega que «Facebook engañó a los inversores y al público sobre su papel en la perpetuación de la desinformación y el extremismo violento en relación con las elecciones de 2020 y la insurrección del 6 de enero».
Después de que «Carol» siguiera páginas verificadas de figuras conservadoras como Fox News y Donald Trump, el algoritmo de Facebook tardó solo dos días en recomendarle que siguiera una página de QAnon.
«Si bien este fue un estudio de un usuario hipotético, es un ejemplo perfecto de la investigación que la compañía hace para mejorar nuestros sistemas y ayudó a informar nuestra decisión de eliminar a QAnon de la plataforma», dijo un portavoz de Facebook.
Otro documento, titulado «Stop the Steal and Patriot Party: The Growth and Mitigation of an Adversarial Harmful Movement», presenta un análisis realizado después del 6 de enero que sugiere que Facebook podría haber hecho más para detener la propagación del movimiento «Stop the Steal», que desempeñó un papel fundamental en los disturbios en el Capitolio.
Y los comentarios filtrados de algunos empleados de Facebook, el 6 de enero, sugieren que la empresa podría haber tenido cierta culpa en lo sucedido al no haber actuado más rápidamente para detener el crecimiento de los grupos de «Stop the Steal».
En respuesta un portavoz de Facebook dijo: «La responsabilidad de la violencia que se produjo el 6 de enero recae en quienes atacaron nuestro Capitolio y en quienes los alentaron».
Falta de apoyo global
Los documentos internos de Facebook y las investigaciones compartidas como parte de las revelaciones de Haugen ponen de manifiesto las deficiencias en la capacidad de Facebook para prevenir la incitación al odio y la desinformación en países como Myanmar, Afganistán, la India, Etiopía y gran parte de Medio Oriente, donde la cobertura de muchos idiomas locales es inadecuada.
Aunque las plataformas de Facebook admiten más de 100 idiomas diferentes en todo el mundo, sus equipos de moderación de contenidos globales están formados por «15.000 personas que revisan contenidos en más de 70 idiomas y trabajan en más de 20 lugares» en todo el mundo.
Por ejemplo, en la India, que representa la mayor base de usuarios, durante varios años Facebook no tenía clasificadores de discursos de odio para el hindi o el bengalí, dos de los idiomas más populares del país, hablados en conjunto por más de 600 millones de personas.
En una presentación interna sobre el discurso de odio antimusulmán, los investigadores de Facebook escribieron: «Nuestra falta de clasificadores para el hindi y el bengalí significa que gran parte de este contenido nunca se marca ni se actúa».
Un portavoz de Facebook le dijo que la compañía agregó clasificadores de discurso de odio para «hindi, en 2018; bengalí, en 2020, y tamil y urdu, más recientemente».
En un comunicado, del 23 de octubre, en el que se abordan los informes relativos a la investigación filtrada, Miranda Sissons, directora de Política de Derechos Humanos de Facebook, y Nicole Isaac, directora de Respuesta Estratégica Internacional de Facebook, escribieron: «Tenemos un proceso líder en la industria para revisar y priorizar los países con mayor riesgo de daño y violencia fuera de línea, cada seis meses. Cuando respondemos a una crisis, desplegamos apoyo específico para cada país según sea necesario».
Trata de personas
Facebook ha sabido de los traficantes de personas que usan sus plataformas desde al menos 2018, pero ha luchado para tomar medidas contra el contenido relacionado.
Según un informe interno, de septiembre de 2019, una investigación de Facebook encontró que «nuestra plataforma permite las tres etapas del ciclo de vida de la explotación humana (reclutamiento, facilitación, explotación) a través de las redes del mundo real. […] Los traficantes, reclutadores y facilitadores de estas ‘agencias’ utilizaban perfiles FB [Facebook], perfiles IG [Instagram], páginas, Messenger y WhatsApp».
Otros documentos relatan cómo los investigadores de Facebook habían marcado y eliminado cuentas de Instagram que pretendían ofrecer trabajadores domésticos para la venta, y esbozaron una serie de medidas que la compañía ha tomado para abordar el problema, incluyendo la eliminación de ciertos hashtags.
«Prohibimos la explotación humana en términos claros», dijo el portavoz de Facebook, Andy Stone. «Llevamos muchos años combatiendo el tráfico de personas en nuestra plataforma y nuestro objetivo sigue siendo impedir que cualquiera que busque explotar a otros tenga un hogar en nuestra plataforma».
Incitación a la violencia a nivel internacional
Documentos internos indican que Facebook sabía que sus estrategias existentes eran insuficientes para frenar la difusión de mensajes que incitan a la violencia en países «en riesgo» de conflicto, como Etiopía.
Facebook confía en organizaciones de comprobación de hechos de terceros para identificar, revisar y calificar la posible desinformación en su plataforma mediante una herramienta interna de Facebook, que saca a la luz los contenidos marcados como falsos o engañosos mediante una combinación de inteligencia artificial y moderadores humanos.
Facebook clasifica a Etiopía, donde la guerra civil ha hecho estragos durante el último año, en su nivel de máxima prioridad para los países en riesgo de conflicto.
Sin embargo, un informe interno, distribuido en marzo, titulado «Daño social coordinado», decía que los grupos armados de Etiopía utilizaban Facebook para incitar a la violencia contra las minorías étnicas en el «contexto de la guerra civil». Y en un audaz titular, el informe advertía: «Las actuales estrategias de mitigación no son suficientes».
No es la primera vez que se plantea la preocupación por el papel de Facebook en la promoción de la violencia y la incitación al odio.
Después de que las Naciones Unidas criticaran el papel de Facebook en la crisis de Myanmar, en 2018, la compañía reconoció que no hizo lo suficiente para evitar que su plataforma se utilizara para alimentar el derramamiento de sangre, y Zuckerberg prometió aumentar los esfuerzos de moderación de Facebook.
En comentarios hechos al consorcio de medios, Haugen dijo: «Realmente creo que hay muchas vidas en juego: que Myanmar y Etiopía son como el capítulo inicial».
Un portavoz de Facebook dijo que la compañía había invertido «US$ 13.000 millones y tenemos 40.000 personas trabajando en la seguridad de nuestra plataforma, incluyendo 15.000 personas que revisan el contenido en más de 70 idiomas y que trabajan en más de 20 lugares en todo el mundo, para apoyar a nuestra comunidad.
Nuestro programa de verificación de hechos de terceros incluye más de 80 socios que revisan el contenido en más de 60 idiomas, y 70 de esos verificadores de hechos están fuera de Estados Unidos».
Impacto en los adolescentes
Según los documentos, Facebook ha trabajado activamente para ampliar el tamaño de su audiencia de adultos jóvenes, incluso cuando la investigación interna sugiere que sus plataformas, en particular Instagram, pueden tener un efecto negativo en su salud mental y bienestar.
Aunque Facebook ha reconocido anteriormente que la participación de los adultos jóvenes en la aplicación de Facebook era «baja y está retrocediendo aún más», la empresa ha tomado medidas para dirigirse a ese público.
Además de una triple estrategia destinada a que los adultos jóvenes «elijan Facebook como su plataforma preferida para conectarse con las personas y los intereses que les interesan», la empresa se centró en una serie de estrategias para «resonar y ganar con los jóvenes».
Estas incluían «cambios fundamentales en el diseño y la navegación para promover la sensación de cercanía y entretenimiento», así como una investigación continua para «centrarse en el bienestar de los jóvenes y los esfuerzos de integridad».
Sin embargo, la investigación interna de Facebook, de la que informó por primera vez The Wall Street Journal, afirma que las plataformas de Facebook «empeoran los problemas de imagen corporal de 1 de cada 3 chicas adolescentes».
Su investigación también encontró que «el 13,5% de las chicas adolescentes en Instagram dicen que la plataforma empeora los pensamientos de ‘suicidio y autolesión'» y el 17% dice que la plataforma, que es propiedad de Facebook, empeora los «problemas de alimentación», como la anorexia.
En una declaración, el 14 de septiembre, la jefa de Políticas Públicas de Instagram, Karina Newton, dijo que «apoyan» la investigación interna, pero argumentó que The Wall Street Journal «se centra en un conjunto limitado de hallazgos y los arroja en una luz negativa».
Los algoritmos que alimentan la división
En 2018, Facebook cambió su algoritmo de News Feed para centrarse en las «interacciones sociales significativas.»
Un análisis, de finales de 2018, de 14 editores en la red social, titulado «¿Recompensa Facebook la indignación?», descubrió que cuantos más comentarios negativos incitaba una publicación de Facebook, más probable era que se hiciera clic en el enlace de la publicación.
«La mecánica de nuestra plataforma no es neutral«, escribió un empleado
Trump se harta de la censura de Facebook y Twitter: Crea su propia red social