¿Qué sabemos de la orientación política de Facebook?

EDGAR ROVIRA

Cada viernes, Mark Zuckerberg, creador y CEO de Facebook, dedica una sesión de una hora a responder las preguntas que le dirigen sus empleados. Antes de las sesiones, la empresa manda un cuestionario a los trabajadores para que indiquen los temas de los que creen que el CEO debería hablar. El pasado 4 de marzo, observando la deriva que estaban tomando las primarias republicanas con Donald Trump a la cabeza, los empleados de la red social pidieron tratar este tema y le lanzaron a Zuckerberg la siguiente pregunta: ¿Qué puede hacer Facebook para ayudar a prevenir que Trump sea presidente en 2017?

Este episodio, que fue publicado por el portal tecnológico Gizmodo, provocó especulaciones sobre las intenciones y las prácticas secretas de Facebook. Ante ello, un portavoz de la red social respondió con el mismo mensaje que la compañía ha utilizado en ocasiones similares: “Votar es la base de un sistema democrático y nosotros creemos que dar apoyo a la participación cívica es una contribución importante que podemos hacer a la comunidad. Como compañía somos neutrales. Ni hemos utilizado, ni vamos a utilizar nuestros productos de forma que podamos influenciar cómo vota la gente”.

Pero las especulaciones sobre las intenciones de la red social no se detuvieron. En Gizmodo apuntaban que la compañía podría estar ocultando deliberadamente el contenido relacionado con Trump o con el partido conservador. Un par de meses después, el conflicto se agravó cuando varios extrabajadores de Facebook acusaron a la red de omitir de forma sistemática contenido de interés para lectores conservadores. Los propios trabajadores admitían que recibieron formación para hacer un trabajo manual como curadores de noticias. Una parte importante de este trabajo consistía en incluir determinadas noticias y omitir otras en el módulo de “tendencias”, donde la red social ubica aquellos temas de los que más se está hablando en cada momento (una herramienta similar a los trending topics de Twitter). Uno de estos extrabajadores citado en Gizmodo admitía que “Aquello no era una muestra neutral de las tendencias, sino una selección subjetiva, era opinión”.

En esta ocasión la respuesta de Facebook fue alegar que las directrices para curar noticias en la red social no permiten eliminar ningún tipo de contenido político, ni tampoco priorizar una opinión por encima de otra. De hecho, según el vicepresidente del departamento de búsquedas, Tom Stocky, el propio sistema de curación funciona a partir de un algoritmo y la revisión manual tan sólo tiene como objetivo el control de contenidos no apropiados o bien que no son reales.

Este caso ha abierto el debate sobre el papel que la red social puede desempeñar en la esfera pública, por ejemplo, influenciando a la opinión pública hasta el punto de condicionar sus decisiones ante unas elecciones. El problema, según han apuntado muchos analistas, es que existe una opacidad absoluta respecto a lo que hace o deja de hacer Facebook. Además, la red social siempre tiene una doble capa de protección que utiliza en casos como el de la curación de contenidos. La compañía se defiende alegando que es el algoritmo, y su aparente neutralidad, el que decide la suerte de estos contenidos. Este es un argumento débil, ya que, como apunta el periodista Seth Fiegerman, al final, algoritmo es tan sólo una palabra para describir una fórmula matemática escrita por humanos. En otras palabras, los algoritmos no son neutrales.

En realidad, estamos ante uno de los grandes debates a los que los grandes gigantes de la red tendrán que hacer frente. Son muchos los que, como el propio Fiegerman, apuntan que las tecnológicas deberán ir incrementando sus niveles de transparencia. El motivo es muy simple: sus algoritmos han pasado a tener una gran importancia en nuestras vidas.

Facebook tiene un papel fundamental en el proceso de información de la ciudadanía. Un ejemplo: el 50% de los universitarios estadounidenses admiten que siguen la actualidad de las elecciones presidenciales a través de la red.  En pocos años el invento de Mark Zuckerberg y sus compañeros de Harvard se ha convertido en la principal puerta de entrada a la información política para buena parte de la ciudadanía, hasta el punto de que los principales medios de comunicación consideran a Facebook como la primera fuente de acceso a sus noticias.

Pero su capacidad de influencia va más allá. En la red no sólo podemos encontrar las noticias, sino también la reacción de nuestra comunidad hacia la actualidad. Esto es, si cabe, más importante. Los estudios sobre el comportamiento de los usuarios han concluido que estos tienden a prestar más atención a los posts de sus contactos que a los de los medios o a los de los propios partidos.

Uno de estos estudios analizó un experimentó que Facebook llevó a cabo en 2010. Este experimento se llevó a cabo durante las midterms americanas y consistió en activar una opción para que determinados usuarios pudieran enviar un mensaje de aviso una vez que habían votado. El análisis concluyó que el mensaje había movilizado a 60.000 votantes y que estos, a su vez, habían sido capaces de contagiar a 280.000 votantes más. Quedó demostrado que los usuarios que veían que sus contactos habían ido a votar tenían un 3% más de posibilidades de ir a votar que aquellos a los que no les aparecía el mensaje.

Este descubrimiento fue uno de los primeros incendios con los que la red social tuvo que lidiar. A los problemas éticos de realizar experimentos en la vida real unas elecciones al Congreso, se sumaba otro gran interrogante que en su momento ya apuntaron analistas como Micah Sifry: ¿cuántos experimentos ha hecho Facebook sin que supiéramos de su existencia?

Como apunta el periodista Jason Abbruzzese, con el actual nivel de transparencia todo lo que podemos hacer es creernos la palabra de Zuckerberg y de su equipo. Aunque después de las últimas acusaciones, esto es cada vez más difícil. Ya no es sólo la sospecha vertida por los exempleados sobre la manipulación de sus contenidos, es que la propia pregunta de la actual plantilla ya es por sí misma una declaración de intenciones, cuando no una prueba de que estos consideran que la red social debe ser una herramienta con unos objetivos políticos concretos. Zuckerberg, por su parte, no lo ve así. Es consciente de que la neutralidad de la red social es un aspecto fundamental para el futuro de Facebook y de su negocio. Y no va mal encaminado. Si pierde la confianza de los usuarios por problemas de posicionamiento político, todo el modelo puede verse afectado. Y lo que es peor, en el camino habría hecho un flaco favor a la democracia.

Edgar Rovira es politólogo y consultor de comunicación en Ideograma (@erovira).

Publicado en Beerderberg

Descargar el PDF

Ver el resto de artículos del número 11