La revolución digital fue leída de diversas maneras: de manera pesimista y optimista. Para los primeros, la irrupción de las nuevas tecnologías iba a ser la amenaza a muchas tradiciones. El libro desaparecería de forma definitiva, seríamos reducidos a meros autómatas que no cultivan la memoria, habría daños irreparables en la manera en que procesamos neuronalmente la información, etcétera. El resultado sería que nos tornaríamos cada vez más en consumidores robotizados y ciudadanos menos reflexivos. Para los segundos, la era digital y las plataformas que emanaron de ésta —Facebook, YouTube, Google, Twitter—, serían la oportunidad de democratizar el espacio público. Todos compareceríamos con voz al debate político y cultural, ya no sólo desempeñaríamos un rol pasivo en tanto receptores de información, sino que participaríamos activamente en la construcción y diseminación de la cultura a través de las plataformas digitales. Éstas posibilitarían un acceso igualitario, sin costo, a una conversación colectiva de la cual quien quisiera podía ser parte. Las redes sociales prometían ser el ágora en donde se discutirían los asuntos de la polis mundial.

Al paso de los años nos damos cuenta que la versión pesimista empieza a cobrar más entidad . Si bien es cierto que las redes han modificado la forma en que aprendemos y han trastocado todos los modelos educativos, lo que hoy vemos es que la visión optimista hace agua. Las plataformas digitales son las intermediarias de la información: diseñan algoritmos que definen el contenido que recibimos y el alcance de nuestras expresiones. Con ello, minan los basamentos de nuestros modelos de entendimiento más básico, han agrietado el terreno común sobre el cual podemos discutir temas de trascendencia pública, en suma: están poniendo en jaque a los sistemas democráticos. Los ya famosos Facebook papers son la muestra más representativa de esto.

El 3 de octubre de 2021, Frances Haugen, una científica de datos que trabajó dos años en Facebook, dio una entrevista en el programa 60 Minutes de CBS donde explicó el contenido de unos documentos (Facebook papers) que ella misma había filtrado tras su renuncia. Allí se detalla cómo la compañía tomó un cúmulo de decisiones para aumentar sus ingresos en lugar de acatar las recomendaciones para hacer su algoritmo más seguro —libre de discurso desinformativo y de odio—. Lo peor es que lo hicieron por razones netamente comerciales .

Recordemos que su negocio está en capturar la atención de sus usuarios para que pasen más tiempo en línea y, contrario a lo que pregonan en público, las ganancias se imponen sobre cualquier otro valor. Haugen declaró que Facebook ha mentido al decir que ha resuelto el problema de las expresiones de odio y violencia, cuando más bien las ha potenciado a cambio de mayor tráfico e interacciones en la red. Como ejemplo, afirmó que la compañía es responsable (así de fuerte) del levantamiento del 6 de enero en el Capitolio —en contra del triunfo electoral de Joe Biden— porque al terminar las elecciones en noviembre, Facebook quitó los controles ante la desinformación y deliberadamente permitió que se difundiera y potenciara la mentira de que se le había robado la presidencia a Donald Trump. Y no sólo eso: además permitió que se crearan los grupos que organizaron los ataques.

Los primeros hallazgos dentro de los documentos demuestran la amenaza que representa esta plataforma para la democracia misma. Van algunas primeras conclusiones: Facebook ha sido un gran aliado para el ascenso del autoritarismo en el mundo. Gracias a la configuración de su algoritmo se incentivó la promoción de los ataques genocidas del ejército de Myanmar en contra de los rohingya y el discurso promilitar en Etiopía. Igualmente, los documentos son parte de una investigación que revela la intervención directa de Zuckerberg para que su plataforma censurara publicaciones en contra del gobierno vietnamita.

No es la primera vez que sale a la luz la influencia de esta compañía en la democracia. A costa de la privacidad de los usuarios y como un ejemplo de manipulación del discurso, Cambridge Analytica permitió que la campaña de Trump realizara anuncios personalizados dirigidos a radicalizar a las personas que ya apoyaban a Trump o a persuadir a quienes tenían un voto indefinido (swing vote).

Estos casos famosos ilustran cómo esta compañía ha servido como herramienta para incidir directamente en las democracias y para lograrlo se ha valido de ese tipo de discursos. Se ha servido del discurso que polariza, ya que es un elemento crucial del modelo de negocios de Facebook. De ahí que se potencien las posturas radicales, las noticias falsas que más afectan nuestras emociones y las discusiones sobre temas sensibles.

A pesar de que los algoritmos son sistemas automatizados, detrás del algoritmo de Facebook hay humanos que deciden los objetivos del programa y las fuentes de información que usará para hacer sus predicciones sobre las publicaciones que captarán la atención de sus usuarios. Y parece que dentro de sus objetivos están todos menos los de promover la democracia, el discurso plural, la tolerancia y el entendimiento humano. Así de grave.


@MartinVivanco
Abogado y analista político

Google News

TEMAS RELACIONADOS