INTERNACIONAL
10/04/2018 07:50 CEST | Actualizado 10/04/2018 07:50 CEST

La máquina del miedo: cómo Facebook permite el flujo de noticias racistas

Facebook difunde a un ritmo vertiginoso publicaciones que incitan al odio.

Stephen Lam / Reuters
Mark Zuckerberg, fundador y presidente de Facebook.

Cada día, como parte de su trabajo, Johanna Wild indaga en los recovecos más aterradores de Facebook. Wild se dedica, entre otras cosas, a analizar información falsa y noticias de odio que los usuarios de Facebook leen, comentan y comparten. Wild pasó una semana inmersa en el mundo de usuarios de todas partes del mundo a fin de comprender qué les gusta y qué no. Para ello, accedió a grupos de Facebook donde se difunden noticias falsas.

Una de esas páginas es Freie Medien (Medios libres, en español), donde algunos simpatizantes del partido alemán de tendencia liberal-conservadora CDU (Unión Demócrata Cristiana) comparten teorías conspirativas. En ese grupo pueden encontrarse publicaciones que aseguran que los ingredientes del champú son "caballos de Troya con invasores peligrosos" o que las Naciones Unidas permiten que se envenene poco a poco la comida.

"Viví en un mundo paralelo que me llenó de odio y me hizo sentir que existe una solución bien sencilla a todos los problemas del mundo", afirma. Al finalizar el experimento, Wild se percató de que "cuesta mucho salir una vez estás dentro".

Cómo hemos llegado a esto: los cambios de algoritmo de Facebook

El director general de Facebook, Mark Zuckerberg ha quitado hierro al asunto de las noticias falsas en repetidas ocasiones. En enero prometió que la página, que cuenta con más de dos mil millones de usuarios, tendría "interacciones más significativas" con la renovación de la página de noticias.

Ahora, la página de noticias que ven los usuarios de Facebook al acceder funciona de forma completamente distinta. Los usuarios pueden ver más información personal de amigos y familiares, así como aquellas noticias que consideran lo suficientemente importantes para comentar y compartir.

Este es uno de los cambios más importantes de la red social más grande del mundo desde su fundación en 2004, y Zuckerberg señala que espera que mejore la vida de las personas.

"La investigación ha revelado que usar las redes sociales para conectar con personas que nos importan favorece nuestro bienestar. Nos sentimos conectados, y menos aislados, y esto influye en la felicidad y la salud a largo plazo. Por otra parte, leer artículos o ver vídeos de forma pasiva, aunque sean de entretenimiento o informativos, puede no ser tan positivo", apunta Zuckerberg.

Mientras tanto, Facebook está vendiendo esta medida a algunas marcas como una iniciativa para aumentar la calidad. Por su parte, muchas de estas marcas han sido testigo de un fuerte descenso de la interacción (engagement) desde que comenzaron los cambios.

Dando prioridad a las publicaciones que reciben más reacciones de los usuarios, Facebook podría promover el miedo y el odio.

"Queremos definir el concepto de noticias de calidad e impulsarlas", prometió el director de Facebook Campbell Brown en una conferencia a mediados de febrero.

Sin embargo, si Facebook prioriza las publicaciones de amigos y familiares (y si esas personas comparten información falsa o comentarios racistas con cierta regularidad) este nuevo algoritmo alimentaría esta peligrosa cámara de eco.

Dando preferencia a las publicaciones que reciben más reacciones de los usuarios, Facebook podría promover el miedo y el odio, una realidad que contradice las declaraciones hechas por Zuckerberg el año pasado.

"Es esencial que Facebook sea un lugar donde las personas con distintos puntos de vista compartan sus ideas. Una sociedad sana debe permitir el debate. Pero el hecho de que alguien trate de silenciar a otras personas o les ataque por lo que son o por sus creencias nos perjudica a todos y es inaceptable. No debemos dar cabida al odio en nuestra comunidad".

El plan de Facebook de aumentar la calidad, contraproducente

Un análisis llevado a cabo por HuffPost Alemania muestra que, a pesar de los comentarios de Zuckerberg, el contenido que fomenta emociones como el odio, el enfado y el miedo está cada vez más presente. Esta conclusión es resultado de una exhaustiva búsqueda empleando información de la web 10000 Flies.

La empresa mide las interacciones que han generado los artículos en las redes sociales y confecciona una lista de los artículos con más éxito cada día. Con "interacciones" nos referimos a me gusta, reacciones, compartidos y comentarios en Facebook, así como tuits, retuits y me gusta en Twitter, aunque constituyen solo una pequeña parte de las interacciones.

El análisis se centró en las 20 publicaciones con mayor éxito de cada día. Se compararon los meses de enero de 2018 y julio y enero de 2017 con el fin de rastrear el desarrollo de las publicaciones de forma aleatoria en el periodo de un año. Un total de 1860 publicaciones se incluyeron en el análisis, lo que equivale a 620 publicaciones al mes. La cuestión central del análisis fue: ¿Qué proporción de los 20 artículos con mayor éxito cuentan con contenido que pueda incitar emociones tales como odio, enfado, indignación y miedo?

Una cosa está clara: las publicaciones que generan emociones negativas varían según el usuario. No obstante, cuando observamos los comentarios de cada artículo, puede decirse que aquellos que hablan sobre refugiados o delitos generan emociones fuertemente negativas entre los usuarios.

Los posts que generan emociones, cada vez más importantes

Los artículos que generan odio o miedo tuvieron un papel muy importante en enero de este año, más que en julio y enero de 2017. El número de interacciones en estas publicaciones fue mayor el pasado enero que en los otros dos meses con los que se comparó. Además, se concluyó que estos artículos suelen encontrarse entre los más populares de las redes sociales y también suelen llegar al top 20.

Los medios nicho (y de dudosa reputación) se han visto cada vez más capacitados para competir con medios más grandes a través de la publicación de temas muy controvetridos, con los que han experimentado un repunte en el número de interacciones. Por ejemplo, tuvieron mucho éxito varios artículos sobre las políticas de refugiados en Alemania o sobre delitos cometidos por inmigrantes.

"Lejos de aportar luz, las redes sociales han estado difundiendo veneno", escribió The Economist en un artículo en noviembre de 2017, en el que describía a Facebook como "una amenaza para la democracia".

Tristan Harris, ex trabajador de Google, también critica duramente las redes sociales, en especial Facebook. "Las redes sociales pueden intensificar los peores rasgos de las personas", comentó para un artículo de Wired.

Los artículos que incitan al miedo generan más interacciones

La investigación también muestra que los artículos que pretendían generar miedo en las redes sociales cobran cada vez más importancia.

No solo ha aumentado la proporción de este tipo de artículos presentes en el top 20, sino que también han aumentado las interacciones de los usuarios con estos artículos. En enero de 2017 hubo 3,3 millones de interacciones y un año después, 3,7 millones.

Tras la victoria de Donald Trump en octubre de 2016, un grupo de investigadores de la Universidad de Columbia descubrió que algunas publicaciones difundidas por seis plataformas que apoyaban su candidatura con información falsa fueron compartidas más de 340 veces en Facebook.

"El número de artículos de este tipo ha aumentado de forma progresiva entre los artículos que más interacciones reciben", apunta Jens Schröder, fundador y codirector de 10000 Flies.

En Facebook se multiplica el contenido extremista, xenófobo y racista, y se ignoran otro tipo de contenidos.

Muchos de esos artículos son publicados por páginas de medios especializadas que se han beneficiado enormemente de este nuevo algoritmo. Prácticamente todos los que se analizaron crecieron de forma significativa en enero de 2018 en alcance y popularidad, llegando a sobrepasar a otros medios alemanes mucho más conocidos como Der Spiegel o Bild.

Por ejemplo, el alcance de la página de noticias de derechas Epoch Times aumentó en un 15%, aunque la página ni siquiera se encuentra entre las 50 más leídas en Alemania. La página de teorías conspirativas Journalistenwatch registró un aumento del 90% en el mismo periodo. Por su parte, el periódico conservador Junge Freiheit aumentó un 56%.

En un mundo sin redes sociales, páginas como Epoch Times no serían capaces de competir con otras más populares y conocidas, pero en Facebook las reglas del juego son distintas.

"Debido a la gran actividad de la gente de derechas en las redes, estos medios de comunicación alternativos parecen mucho más grandes y populares de lo que son en realidad, fuera de las redes sociales. Probablemente esta sea una de las razones por las que los simpatizantes de la derecha alemana sobreestiman la magnitud de sus círculos sociales. Al fin y al cabo, no representan más que a un 15% de la población en Alemania", señala Schröder.

Los artículos que incitan al miedo alcanzan los primeros puestos

El aumento de influencia de las páginas defensoras de la derecha trajo consigo un incremento de la visibilidad de las noticias que incitaban al miedo. El 9 de enero ardieron las redes porque en el canal de televisión alemana para niños KiKa había salido un documental sobre refugiados. Este documental se emitió en noviembre de 2017, pero se viralizó en enero por el ataque masivo que hicieron los blogs de derechas mediante sus artículos. Estos artículos se hicieron virales, llegando a colarse en el top 20 de 10000 Flies.

El 27 de enero, un artículo titulado "El gobierno paga al harén 7500 euros al mes" se convirtió en la publicación más popular del mes, de acuerdo con 10000 Flies. Este artículo tergiversa la historia de una madre soltera de 9 hijos que, por una decisión del gobierno, presuntamente recibe 7500 euros al mes. Tras algunas investigaciones, las páginas Mimikama y Tag24 revelaron que la familia recibe bastante menos dinero, unos 3000 euros. Sin embargo, la corrección de la noticia recibió mucha menos atención por parte de los usuarios que la historia original.

Es importante señalar que el mes de enero de 2018 fue relativamente tranquilo en cuanto a noticias en Alemania, a excepción de la formación de la gran coalición del Gobierno.

Los refugiados se llevan la peor parte del acoso de Facebook

Asesinatos, matanzas, desastres. Estos temas fueron extremadamente populares en las redes en enero de 2018. Un total de 109 artículos del top 20 de 10000 Flies en enero de 2018 trataban sobre delitos en los que siempre había un refugiado involucrado.

Estos artículos generan una visión distorsionada de la realidad por parte de los lectores, pues, en realidad, la proporción de inmigrantes involucrados en delitos en 2016 en Alemania fue del 14,5%. Los datos de 2017 no se publicarán hasta primavera, pero no debemos dar por hecho que este porcentaje haya aumentado de forma significativa en ese año.

¿Un mundo paralelo?

Facebook parece haberse convertido en un lugar que no refleja la realidad de la vida de la mayoría de usuarios y del público general. En esta red se multiplica el contenido extremista, xenófobo y racista, y se ignoran otro tipo de contenidos. Puede parecer que Facebook está creando un mundo paralelo, pero Jens Schröder subraya que los responsables son un grupo de personas pequeño, pero muy activo.

"Todavía queda por ver si este mundo paralelo va a seguir existiendo para siempre", plantea Schröder, y añade que el contenido extremista siempre tiene "sus altos y sus bajos".

"Aunque ahora claramente estamos en una fase de altos", zanja.

Este artículo fue publicado originalmente en el 'HuffPost' Alemania, apareció posteriormente en la versión estadounidense y ha sido traducido del inglés por María Ginés Grao.

ESPACIO ECO