Cuando los partidarios de Donald Trump irrumpieron en el Capitolio de los Estados Unidos el 6 de enero, luchando contra la policía y obligando a los legisladores a esconderse, se estaba produciendo una insurrección de otro tipo dentro de la empresa de redes sociales más grande del mundo.

A miles de kilómetros de distancia, en California, los ingenieros de Facebook se apresuraban a ajustar los controles internos para frenar la difusión de información errónea y contenido incitador. Las acciones de emergencia, algunas de las cuales se revertieron después de las elecciones de 2020, incluyeron prohibir a Trump, congelar los comentarios en grupos con antecedentes de incitación al odio, filtrar el grito de guerra “Stop the Steal” y empoderar a los moderadores de contenido para que actúen de manera más asertiva al etiquetar el Estados Unidos es un “lugar temporal de alto riesgo” para la violencia política.

Al mismo tiempo, estalló la frustración dentro de Facebook por lo que algunos vieron como la respuesta vacilante e inconsistente de la empresa al creciente extremismo en los EE. UU.

“¿No hemos tenido tiempo suficiente para descubrir cómo manejar el discurso sin permitir la violencia?” un empleado escribió en un tablero de mensajes interno en el apogeo de la agitación del 6 de enero. “Hemos estado alimentando este fuego durante mucho tiempo y no debería sorprendernos que ahora esté fuera de control”.

Es una pregunta que todavía pesa sobre la compañía hoy, mientras el Congreso y los reguladores investigan la participación de Facebook en los disturbios del 6 de enero.

Los nuevos documentos internos proporcionados por la ex empleada de Facebook convertida en denunciante de irregularidades, Frances Haugen, brindan una visión poco común de cómo la compañía parece haber simplemente tropezado con el motín del 6 de enero. Rápidamente se hizo evidente que incluso después de años bajo el microscopio por no vigilar suficientemente su plataforma, la red social había pasado por alto cómo los participantes de los disturbios pasaron semanas prometiendo, en el propio Facebook, evitar que el Congreso certificara la victoria electoral de Joe Biden.

Los documentos también parecen reforzar la afirmación de Haugen de que Facebook antepuso su crecimiento y ganancias a la seguridad pública, abriendo la ventana más clara hasta ahora sobre cómo los impulsos conflictivos de Facebook, para salvaguardar su negocio y proteger la democracia, chocaron en los días y semanas previos al intento. Golpe de Estado del 6 de enero.

Esta historia se basa en parte en las divulgaciones que Haugen hizo a la Comisión de Bolsa y Valores y que el asesor legal de Haugen presentó al Congreso en forma redactada. Las versiones redactadas recibidas por el Congreso fueron obtenidas por un consorcio de organizaciones de noticias, incluida The Associated Press.

Lo que Facebook llamó medidas de emergencia “Romper el cristal” implementadas el 6 de enero fueron esencialmente un conjunto de herramientas de opciones diseñadas para detener la propagación de contenido peligroso o violento que la red social había utilizado por primera vez en el período previo a las amargas elecciones de 2020. . Hasta 22 de esas medidas se revocaron en algún momento después de las elecciones, según una hoja de cálculo interna que analiza la respuesta de la empresa.

“Tan pronto como terminaron las elecciones, los apagaron o cambiaron la configuración a la que eran antes, para priorizar el crecimiento sobre la seguridad”, dijo Haugen en una entrevista con “60 Minutes”.

Un informe interno de Facebook posterior al 6 de enero, previamente informado por BuzzFeed, culpó a la compañía por tener un enfoque “fragmentado” del rápido crecimiento de las páginas de “Stop the Steal”, fuentes de desinformación relacionadas y comentarios violentos e incitantes.

Facebook dice que la situación tiene más matices y que calibra cuidadosamente sus controles para reaccionar rápidamente a picos de contenido violento y de odio, como lo hizo el 6 de enero. La compañía dijo que no es responsable de las acciones de los alborotadores y que tener controles más estrictos en lugar antes de ese día no habría ayudado.

Las decisiones de Facebook de introducir o eliminar ciertas medidas de seguridad tomaron en cuenta las señales de la plataforma de Facebook, así como la información de las fuerzas del orden, dijo la portavoz Dani Lever. “Cuando esas señales cambiaron, también lo hicieron las medidas”.

Lever dijo que algunas de las medidas se mantuvieron en vigor hasta bien entrado febrero y otras siguen activas hoy.

Algunos empleados estaban descontentos con la gestión de contenido problemático por parte de Facebook incluso antes de los disturbios del 6 de enero. Un empleado que dejó la empresa en 2020 dejó una nota larga en la que afirmaba que las nuevas herramientas prometedoras, respaldadas por una sólida investigación, estaban siendo limitadas por Facebook por “temores de las respuestas públicas y de las partes interesadas en las políticas” (traducción: preocupaciones sobre las reacciones negativas de los aliados e inversores de Trump ).

“De manera similar (aunque aún más preocupante), he visto que las salvaguardas ya construidas y en funcionamiento se deshacen por las mismas razones”, escribió el empleado, cuyo nombre está tachado.

La investigación realizada por Facebook mucho antes de la campaña de 2020 dejó pocas dudas de que su algoritmo podría representar un grave peligro de difundir información errónea y potencialmente radicalizar a los usuarios.

Un estudio de 2019, titulado “El viaje de Carol a QAnon: un estudio de usuario de prueba sobre información errónea y riesgos de polarización encontrados a través de sistemas de recomendación”, describió los resultados de un experimento realizado con una cuenta de prueba establecida para reflejar las opiniones de un prototípico “conservador fuerte”, pero no extremista – Nort de 41 años

h Mujer Carolina. Esta cuenta de prueba, con el nombre falso de Carol Smith, indicó una preferencia por las principales fuentes de noticias como Fox News, siguió a los grupos de humor que se burlaban de los liberales, abrazaron el cristianismo y era fan de Melania Trump.

En un solo día, las recomendaciones de páginas para esta cuenta generadas por el propio Facebook habían evolucionado a un “estado bastante preocupante y polarizador”, según el estudio. Para el día 2, el algoritmo recomendaba contenido más extremista, incluido un grupo no vinculado a QA, al que el usuario falso no se unió porque no se sentía atraída de forma innata por las teorías de la conspiración.

Una semana más tarde, el feed del sujeto de prueba presentaba “un aluvión de contenido gráfico, conspirativo y extremo”, incluidas publicaciones que revivían la mentira falsa del nacimiento de Obama y vinculaban a los Clinton con el asesinato de un exsenador del estado de Arkansas. Gran parte del contenido fue promovido por grupos dudosos dirigidos desde el extranjero o por administradores con un historial de violar las reglas de Facebook sobre la actividad de los bots.

Esos resultados llevaron al investigador, cuyo nombre fue redactado por el denunciante, a recomendar medidas de seguridad que van desde eliminar contenido con referencias de conspiración conocidas y deshabilitar las insignias de “contribuyente principal” para los comentaristas de información errónea hasta reducir el número umbral de seguidores requerido antes de que Facebook verifique el administrador de una página. identidad.

Entre los otros empleados de Facebook que leyeron la investigación, la respuesta fue de apoyo casi universal.

“¡Oye! Este es un estudio tan completo y bien delineado (e inquietante) ”, escribió un usuario, cuyo nombre fue tachado por el denunciante. “¿Conoce algún cambio concreto que surgió de esto?”

Facebook dijo que el estudio era uno de los muchos ejemplos de su compromiso de estudiar y mejorar continuamente su plataforma.

Otro estudio entregado a investigadores del Congreso, titulado “Comprensión de los peligros de las comunidades temáticas nocivas”, analizó cómo las personas de ideas afines que abrazan un tema o identidad límite pueden formar “cámaras de eco” para la desinformación que normaliza las actitudes dañinas, estimula la radicalización e incluso puede proporcionar una justificación de la violencia.

Ejemplos de comunidades tan dañinas incluyen QAnon y grupos de odio que promueven teorías de una guerra racial.

“El riesgo de violencia o daño fuera de línea se vuelve más probable cuando personas de ideas afines se unen y se apoyan mutuamente para actuar”, concluye el estudio.

Los documentos de acusación presentados por los fiscales federales contra los que presuntamente asaltaron el Capitolio tienen ejemplos de personas de ideas afines que se unen.

Los fiscales dicen que un líder reputado del grupo de milicias Oath Keepers usó Facebook para discutir la formación de una “alianza” y coordinar planes con otro grupo extremista, los Proud Boys, antes de los disturbios en el Capitolio.

“Hemos decidido trabajar juntos y cerrar esta mierda”, escribió en Facebook Kelly Meggs, descrita por las autoridades como la líder del capítulo de Florida de los Oath Keepers, según los registros judiciales.