Cómo los algoritmos de Facebook promueven contenidos tóxicos
La demanda de Frances Haugen demuestra que la empresa que controla la red social sabía que sus algoritmos promueven contenidos peligrosos, pero decidió no hacer nada al respecto.
Por Prabir Purkayastha para ARGMedios
Últimamente, Facebook ha estado en la palestra pública por dos razones. Aunque ambas resultan “perjudiciales” desde el punto de vista de la empresa, en términos de interés público cada una tiene su propio nivel de pertinencia. La noticia con menos trascendencia a largo plazo -pero con mayor atractivo mediático- fue que lo que debía ser un pequeño cambio de configuración hizo que Facebook, Instagram y WhatsApp se cayeran durante algunas horas el 4 de octubre. Esto afectó a miles de millones de usuarios y usuarias, exponiendo la importancia que Facebook y otros gigantes tecnológicos han adquirido en la vida cotidiana de muchas personas e, incluso, en el funcionamiento de pequeñas empresas.
La otra noticia -por supuesto mucho más significativa que esta primera- es la denuncia de Frances Haugen, ex empleada de la empresa, que hizo públicas decenas de miles de páginas de documentos internos de Facebook. Estos documentos evidencian que la dirección de Facebook prioriza repetidamente los beneficios económicos por sobre el bien social. Los algoritmos de Facebook polarizaron a la sociedad y promovieron el odio y las noticias falsas porque impulsaron el engagement en sus plataformas. El hecho de que la plataforma esté destrozando comunidades, e incluso poniendo en peligro a los adolescentes, especialmente a las niñas, por no tener cuerpos “perfectos”, aparentemente no le importó ni un ápice a Facebook.
El Wall Street Journal ha publicado informes detallados, citando documentos internos de Facebook y a Frances Haugen, que también ha aparecido en el programa 60 Minutes de la CBS y en audiencias del Congreso. “Lo que vi en Facebook una y otra vez fue que había conflictos de intereses entre lo que era bueno para el público y lo que era bueno para Facebook”, le dijo Haugen al corresponsal de CBS, Scott Pelley, en 60 Minutes. “Y Facebook, una y otra vez, eligió optimizar para sus propios intereses, como ganar más dinero”, agregó.
El científico de datos, de 37 años, ha presentado ocho denuncias contra Facebook ante la Comisión de Valores y Bolsa (SEC) con la ayuda de una organización sin ánimo de lucro, Whistleblower Aid. Estas denuncias están respaldadas por pruebas fehacientes: decenas de miles de documentos internos de Facebook que Haugen había copiado en secreto antes de abandonar la compañía.
¿Por qué esto es una gran noticia cuando estos temas relacionados con Facebook se han planteado, una y otra vez, destacando especialmente después de que se hicieran públicas las revelaciones relativas a la empresa de datos Cambridge Analytica y a Facebook en 2018? ¿Acaso no sabíamos ya cómo Facebook, WhatsApp y otras plataformas de medios sociales se han convertido hoy en día en poderosos instrumentos que ayudan a promover el odio y la política divisoria? ¿No han responsabilizado los investigadores de la ONU a Facebook de la violencia genocida contra los rohingyas en Myanmar? ¿No se vieron acaso patrones similares durante los disturbios comunales en Muzaffarnagar, en el estado indio de Uttar Pradesh en 2013 y 2017?
La gran noticia es que ahora tenemos pruebas de que esta plataforma era plenamente consciente de lo que hacía: los documentos internos de Facebook que Haugen ha hecho públicos. Se trata de fuentes directas de información.
Al dar prioridad a las publicaciones que promueven el engagement -es decir, que la gente lea, responda o le dé me gusta-, Facebook se aseguró de que la gente permaneciera en su plataforma durante mucho más tiempo. Los usuarios de Facebook podían entonces “venderse” a los anunciantes con mayor eficiencia, mostrándoles más anuncios.
El modelo de negocio de Facebook no es promover las noticias, las charlas amistosas entre los usuarios o entretener a la gente. Está vendiendo sus usuarios a quienes pueden venderles mercancía. Y, al igual que Google, conoce mucho mejor quiénes son sus usuarios y qué pueden comprar. Esto es lo que proporcionó a Facebook el 98 por ciento de sus ingresos en 2020 y la ha convertido en una de las seis empresas de un billón de dólares (en septiembre de 2021) en términos de capitalización bursátil.
Al testificar ante el Congreso el 5 de octubre, Haugen dijo que “Facebook utiliza la inteligencia artificial para encontrar contenido peligroso”, informó Ars Technica. “El problema es que la propia investigación de Facebook dice que no pueden identificar adecuadamente el contenido peligroso –indicó-. Y como resultado, esos algoritmos peligrosos que admiten están recogiendo los sentimientos extremos, la división”.
Que esto estaba ocurriendo es ampliamente conocido y ha sido discutido, incluso en mis propias columnas. La respuesta de Facebook a estas críticas fue la creación de un consejo de supervisión independiente y el empleo de un gran número de verificadores de hechos. Este y otros procesos ayudarían a filtrar los mensajes de odio y las noticias falsas. Lo que ocultaron fue que todas estas acciones eran simplemente cosméticas. El conductor del tráfico, o lo que una persona ve en su feed -o, en términos de Facebook, con lo que participa-, está determinado por algoritmos. Y estos algoritmos estaban orientados a promover las publicaciones más tóxicas y divisivas, ya que esto es lo que atrae la participación. El aumento de la participación es el motor principal de los algoritmos de Facebook y anula cualquier medida para desintoxicar su contenido.
El testimonio de Haugen en el Congreso también relativiza cuáles son los verdaderos problemas de Facebook y lo que los gobiernos de todo el mundo deben hacer para proteger a sus ciudadanos: lograr que la plataforma sea responsable, no censurando la incitación al odio y comprobando la información errónea publicada por usuarios individuales, sino más bien atacando la tendencia de sus algoritmos a permitir el peligroso contenido de alto engagement. “No se trata simplemente de que ciertos usuarios de las redes sociales estén enfadados o sean inestables, o de que un bando esté radicalizado contra el otro”, dijo Haugen.
“Estos problemas tienen solución… Facebook puede cambiar, pero está claro que no lo va a hacer por sí solo”, estimó la ex empleada de la empresa. Mientras se dirigía al Congreso de Estados Unidos sobre lo que se puede hacer para regular Facebook a nivel nacional, Haugen también reconoció los problemas que los algoritmos de Facebook han causado en todo el mundo. La solución, por tanto, debe ser también global. En su testimonio, dijo que las escasas autoreformas propuestas por Facebook serían insuficientes para hacer que la empresa rinda cuentas de sus acciones hasta que sean totalmente transparentes.
Facebook se escuda en las leyes de “puerto seguro”, que protegen a las empresas tecnológicas que no generan contenidos por sí mismas, sino que proporcionan su plataforma para lo que se denomina contenido generado por el usuario. En Estados Unidos, es la Sección 230 de la Ley de Decencia en las Comunicaciones la que permite a estas empresas tecnológicas “moderar el contenido de sus servicios”; en India, es la Sección 79 de la Ley de Tecnología de la Información. Ambos países están estudiando reformas.
En Estados Unidos, “una revisión de la Sección 230… haría responsable al gigante de las redes sociales de sus algoritmos”, informa Ars Technica. En palabras de Haugen, “si tuviéramos una supervisión adecuada, o si reformáramos la (Sección) 230 para hacer a Facebook responsable de las consecuencias de sus decisiones de clasificación intencionadas, creo que se desharían de la clasificación basada en el engagement. Porque está provocando que los adolescentes estén expuestos a más contenidos de anorexia, está separando a las familias y, en lugares como Etiopía, está literalmente avivando la violencia étnica”.
El problema principal no es el contenido odioso que los usuarios generan en Facebook; son los algoritmos de Facebook los que llevan este contenido venenoso al feed de Facebook de una persona continuamente para maximizar los ingresos publicitarios de la empresa.
Haugen añadió: “Facebook quiere engañarte, haciéndote creer que las protecciones de privacidad o los cambios en la Sección 230 serán suficientes. Aunque son importantes, no llegarán al núcleo de la cuestión, que es que nadie entiende realmente las decisiones destructivas tomadas por Facebook, excepto Facebook. No podemos permitirnos nada menos que una transparencia total. Mientras Facebook siga operando en la sombra, ocultando sus investigaciones del escrutinio público, no podrá rendir cuentas. Hasta que no cambien los incentivos, Facebook no cambiará. Si se le deja solo, Facebook seguirá tomando decisiones que van en contra del bien común, nuestro bien común”.
Por supuesto, la prevalencia generalizada de contenidos tóxicos en las plataformas de Facebook se ve favorecida por su negligencia deliberada al no disponer de clasificadores lingüísticos -los algoritmos utilizados para detectar la incitación al odio- para los contenidos que no están en inglés y se crean en otros idiomas. A pesar de que el hindi es el tercer idioma más hablado del mundo y el bengalí el sexto, según Haugen, Facebook no dispone de suficientes “clasificadores de discurso de odio” en estos dos idiomas.
Ya he escrito anteriormente por qué el contenido divisivo y las noticias falsas tienen más viralidad que cualquier otro contenido. Los documentos de Haugen confirman lo que los analistas, incluido yo mismo, hemos estado diciendo todo el tiempo. Los algoritmos que Facebook y otras empresas de tecnología digital utilizan hoy en día no codifican directamente las reglas para aumentar el engagement. En su lugar, estas empresas utilizan el aprendizaje automático, o lo que se llama vagamente inteligencia artificial, para crear estas reglas. Es el objetivo -aumentar el engagement– el que crea las reglas que conducen a la exhibición de contenido tóxico en los feeds de los usuarios, lo que está desgarrando las sociedades y dañando la democracia. Ahora tenemos pruebas fehacientes, en forma de documentos filtrados, de que esto es lo que ha estado ocurriendo. Y lo que es peor, los dirigentes de Facebook y Mark Zuckerberg han sido plenamente conscientes del problema desde el principio.
Sin embargo, no todo el daño en la plataforma de Facebook fue causado por los algoritmos. A partir de los documentos de Haugen, descubrimos que Facebook había puesto en la “lista blanca” a usuarios de alto perfil, cuyo contenido se promocionaría incluso si violaban las directrices de Facebook. Millones de estos usuarios especiales podían violar las normas de Facebook con impunidad. Anteriormente, escribí sobre las pruebas aportadas por el Wall Street Journal acerca de cómo Facebook India protegió a los líderes del BJP (Bharatiya Janata Party, Partido Popular Indio), a pesar de las repetidas alertas rojas relacionadas con sus publicaciones que se levantaron dentro de la propia Facebook.
Esto no es todo lo que revela el tesoro de documentos internos de Facebook difundidos por Haugen. Al igual que las empresas de cigarrillos investigan cómo invitar a los niños a fumar, Facebook ha investigado a los “tweens”, que son niños de entre 10 y 12 años. Su investigación se centró en cómo enganchar a los “preadolescentes” a las plataformas de Facebook para que pudieran crear nuevos consumidores para sus plataformas. Todo ello a pesar de que sus investigaciones internas mostraban que las plataformas de Facebook promovían la anorexia y otros trastornos alimenticios, la depresión y las tendencias suicidas entre los adolescentes.
Todos estos hechos deberían dañar la imagen de Facebook. Pero es una empresa de un billón de dólares y una de las mayores del mundo. Su abultado saldo de caja, unido al poder que ejerce en la política y a su capacidad para “hackear” elecciones, proporciona la protección que el gran capital recibe en el capitalismo. El pecado capital que el gran capital no puede tolerar es mentir a otros capitalistas. Los documentos internos que Haugen ha presentado a la SEC podrían finalmente dar lugar a una reacción contra los gigantes de las redes sociales y conducir a su regulación -si no una regulación fuerte, al menos algunas restricciones débiles en los algoritmos que promueven el odio en estas plataformas de medios sociales-.
Una cita de hace una década es tan relevante ahora, a la luz de estos recientes acontecimientos de Facebook, como lo fue cuando el entonces genio de la tecnología de Silicon Valley de 28 años, Jeff Hammerbacher, lo dijo por primera vez: “Las mejores mentes de mi generación están pensando en cómo hacer que la gente haga clic en los anuncios”. Este ha sido durante mucho el redoble de tambores que ha impulsado la marcha de los gigantes de las redes sociales hacia sus trillones.
*Por Prabir Purkayastha para ARGMedios / Foto de portada: Dado Ruvic – Reuters