Suspender o no suspender: el dilema de la censura en las redes sociales

Suspender o no suspender: el dilema de la censura en las redes sociales

El bloqueo de las cuentas de Trump por su defensa de la violencia en el Capitolio revive el debate sobre la libertad de expresión y sus límites en el mundo 'online'.

A photo illustration shows the suspended Twitter account of U.S. President Donald Trump on a smartphone at the White House briefing room in Washington, U.S., January 8, 2021. REUTERS/Joshua Roberts/IllustrationJoshua Roberts / Reuters

Hace ya 20 años, las redes sociales irrumpieron en el mundo como una forma de expresión libre, sin controles y sin censuras. Hoy, son noticia porque sus gestores se atreven a suspender las cuentas de todo un presidente de EEUU, como Donald Trump, por difundir mensajes que van contra sus políticas. En este caso, por riesgo de “incitación a la violencia”.

El debate, de nuevo, revive: ¿Pueden controlar las empresas lo que publican los usuarios? ¿Deben hacerlo? ¿Violan o no la libertad de expresión? ¿Es tarea suya o de los Gobiernos la de velar por los contenidos? 

Hay que echar la vista atrás para entender cómo se ha llegado a este punto. Como explica la analista argentina Nicole Vuarambon, las redes evolucionaron hasta ser “una gran herramienta de difusión de contenidos”, a las que acudíamos todos (también medios de comunicación o empresas, no sólo usuarios individuales), y “los contenidos empezaron a tener un gran impacto en la realidad”, sobre todo por su velocidad de difusión, nunca vista. El escaparate barato y estupendo que permitía, por ejemplo, que las minorías tuviesen su espacio.

Como ha reconocido el Tribunal Supremo de Estados Unidos, quizá sean “el mecanismo más poderoso del que disponen los ciudadanos para hacer oír sus voces”. Pero, junto a esta bondad, está la cara oscura, el lodazal en el que se convierte, a base de puro odio e insulto, y por eso se ha acabado planteando la necesidad de su regulación.

Problema: son eso, redes, no medios de comunicación regidos por protocolos, consejos editoriales, defensores, leyes. Y son tan masivos que parecen inabarcables. Tienen otra naturaleza y son relativamente nuevos, así que nadie sabe muy bien si están acertando con su política de veto o están vulnerando derechos inalienables.

Han ido paso a paso: las empresas introdujeron avisos sobre fuentes de información, como medios gubernamentales u órganos de propaganda, lanzaron avisos sobre fake news o noticias con informaciones no verificadas, luego denunciaron públicamente las que alimentaban la violencia o la xenofobia y se aceleró la retirada de contenido inapropiado.

A veces no llegan, porque los sistemas de Inteligencia Artificial para detectar casos sospechosos no son perfectos, son puenteados con algo tan sencillo como la ironía, y a veces se corta de más, como cuando YouTube canceló más de 100.000 videos que informaban sobre las numerosas violaciones de los derechos humanos en Siria.

En 2016, la Unión Europea firmó un código de conducta con Facebook, TwitterMicrosoft y Youtube, al que luego se sumaron Instagram, Google, Snapchat y DailyMotion. Su plan era bloquear contenidos racistas, xenófobos, sexistas o violentos en un máximo de 24 horas desde su publicación. Ha sido, hasta ahora, el más exitoso ejemplo de coordinación entre las empresas y los Gobiernos: tres de cada cuatro post denunciados son eliminados, según la Comisión Europea, y más del 80% de las notificaciones se resuelven en tiempo.

Pero el momento determinante en el que las empresas comenzaros a hacérselo mirar fue tras la masacre de Christchurch (Nueva Zelanda, 2019), un ataque racista a mezquitas retransmitido por Facebook y cuyos vídeos fueron replicados por miles de usuarios. Un día entero costó retirar todo el contenido de la red social.

¿Quién regula?

Dos semanas más tarde de aquello, el CEO de Facebook, Mark Zuckerberg, publicó una carta en The Washington Post que abrió la caja de Pandora: pedía “reglas nuevas” para “proteger internet de los contenidos peligrosos”, instando a “un papel más activo por parte de los Gobiernos”. “Muchos políticos a menudo me dicen que tenemos demasiado poder sobre la libertad de expresión. Y, francamente, estoy de acuerdo”, afirmaba, recordando que Facebook se responsabiliza de eliminar el contenido tóxico según reglas que no son unívocas, ni pueden cubrir la variedad de publicaciones de los usuarios. El empresario quiere “que los organismos independientes establezcan estándares” con los que medir las actividades de las firmas.

Muchos políticos a menudo me dicen que tenemos demasiado poder sobre la libertad de expresión. Y, francamente, estoy de acuerdo
Mark Zuckerberg, CEO de Facebook

Desde entonces, países como Australia o Reino Unido han abordado legislaciones nacionales para regular las redes y hacer responsables a las empresas, pero son las excepciones. Y es que no hay posturas claras. El Think tank Institute of Economic Affairs, por ejemplo, afirma que la idea de que legislen los Ejecutivos nacionales es “draconiana”, que otorgar al Gobierno un poder de censura y decidir lo que puede o no puede publicarse online es peligroso, porque genera un control excesivo. Según la ONG Index On Censorship, “una definición amplia de abuso online pondría en peligro la libertad de expresión”.

El abogado bilbaíno Iñaki López, especialista en Derecho de la Comunicación, reconoce que “el desafío es encontrar un equilibrio” entre seguridad y libertad, que hay que ser “cautelosos” con los pasos que se dan, pero que “debe haber fórmulas para que se limiten los mensajes de odio sin vulnerar el derecho de expresión”. “Evitar abusos y proteger derechos”, resume. ¿Pero cómo? “Con la ley en la mano, con nuevas leyes”, dice.

Entiende que las empresas no pueden “ni deben” decidir, porque están lideradas por hombres y mujeres de negocios. Su meta es otra. “Las redes no quieren, como dice Facebook, asumir este papel. Les saldría muy caro el equipo para perseguir todo y verificar. Cada vez que avisan de un bulo, por ejemplo, están editando, como en un periódico, y deberían responder como tales, dicen algunos gobiernos. Responda la empresa o el usuario, hacen falta normas para aplicar”, señala.

Propone esta salida y no observatorios, reguladores estatales o etiquetas “porque un juez sí puede, con todas las garantías, decidir qué es un derecho fundamental y qué no”, y no lo que diga ni un Zuckerberg ni un Gobierno cualquiera. “Hay muchos casos que no son el de Trump. No son evidentes. Necesitan una evaluación de manos expertas, no interesadas”, defiende.

López añade que en este debate es “importante” la colaboración público-privada entre los estados y las redes, ya que se pueden activar mecanismos de prevención “más eficaces”, pero eso también pasa por abordar otro tabú: el del anonimato. “Las empresas tienen que trabajar en la verificación de las personas e instituciones que están tras cada cuenta. Que esa información vital pueda compartirse en momentos de urgencia puede evitar males mayores, como cuando hay conexiones terroristas por estas vías. La libertad conlleva responsabilidad, sin caer en la inconstitucionalidad”, concluye.

Control y tutela

El debate generado a raíz del nuevo escándalo en redes con Trump tiene otra doble vertiente: si hay control de los estados, ¿no se puede acallar una vía de expresión especialmente valiosa en lugares donde la prensa formal y la ciudadana están en peligro? Y más: ¿hay que cortar por lo sano porque los ciudadanos no son capaces de discernir por sí mismos?

Sobre el primer punto, los datos son contundentes: la ONG Freedom House asegura que el 67% de los usuarios de internet en el mundo, hoy, están en países en los que criticar a las autoridades puede ser motivo de censura, como mínimo, si no de persecución, arresto o muerte. Hace diez años, cuando se produjo la explosión de las Primaveras Árabes, Twitter o Facebook fueron esenciales para saltar las restricciones de las dictaduras y convocar protestas, difundir mensajes contestatarios y llamar a la revolución.

La libertad de uso es tal que también se dan casos contrarios, como el de Myanmar, donde la ONU ha acreditado que las redes sirvieron de forma masiva para incitar al odio contra la minoría musulmana rohingya. Fue en 2017. La ambivalencia, de nuevo.

En el caso de la autonomía ciudadana, se afrontar un debate de raíz: el de si somos seres capaces de discernir, de leer de forma comprensiva, de entender cuando se nos miente o se nos manipula. “Vetar tuits o cerrar cuentas puede dar a entender que ese paternalismo es necesario porque, si no, nos las tragaríamos todas”, se lamenta López.

Es más fácil que Trump recupere sus cuentas que resolver este nudo gordiano.