La advertencia científica sobre los enjambres de IA que amenazan la democracia: "La cuestión no es si existen, sino cómo operan ya"
Dos investigadores argumentan por qué son más peligrosos que los trols y bots.

Hace unos días, 21 expertos mundiales alertaron en la revista Science sobre los llamados 'enjambres de IA maliciosos', por su posible amenaza para la democracia.
Para entender su alcance, primero hay que comprender que estos enjambres son sistemas de inteligencia artificial que trabajan de modo colectivo, salvando las distancias, como lo hacen las abejas o las hormigas. Funcionan de manera independiente, pero con un objetivo común. Y si éste es la desinformación o la desestabilización, tenemos un problema.
Así lo advirtieron esa veintena de expertos, que han avisado sobre su potencial para manipular a la opinión pública y dañar la democracia.
En Welt han entrevistado a dos de esos autores, ambos radicados en Oslo (Noruega), Daniel Thilo Schroeder, del instituto de investigación SINTEF, y Jonas R. Kunst, de BI Norwegian Business School. Ambos han sido muy claros a la hora de explicar por qué estos enjambres de IA pueden ser más peligrosos que los ya conocidos trols y bots.
"En las granjas de trols rusas, era habitual que los trols [personas que publican mensajes provocativos, falsos o que, en definitiva, meten ruido] que trabajaban allí controlaran varias cuentas simultáneamente. Sin embargo, el factor humano seguía siendo el mayor factor de coste. Creemos que, con el estado actual de la IA, el factor de control humano debe ser cada vez menos importante para lograr economías de escala", sentencia Schroeder.
A esto, Kunst agrega que ahora "es posible crear una gran cantidad de agentes controlados por IA que "pueden trabajar las 24 horas del día. No se cansan".
"Para mí, la pregunta no es si existen, sino simplemente en qué medida ya están en funcionamiento", apostilla este último investigador.
Necesidad de investigación "para desarrollar contramedidas"
Como argumentan, hay estudios que han demostrado que "incluso las actitudes políticas más arraigadas pueden cambiar rápidamente cuando se habla con un chatbot programado para abordarlas" y si esto se extrapola al sistema de enjambre, "se crea un espectro de influencia completamente diferente".
Son partidarios de "profundizar más", para conocer en qué punto están los enjambres de IA y cómo operan, "para desarrollar contramedidas".
"Las plataformas deben estar obligadas a compartir datos y deben incrementarse drásticamente los presupuestos gubernamentales para investigación", defienden.
Advierten de que las grandes empresas de IA y las plataformas de redes sociales "invierten mucho dinero en la investigación y optimización de algoritmos", así como en el desarrollo de IA, pero "muy poco en seguridad".
