Carissa Véliz, filósofa de Oxford, sobre los tecnomagnates de la IA: "Antiguamente, los profetas que hacían profecías imprudentes acababan mal"
Tecnología
Tecnología

Carissa Véliz, filósofa de Oxford, sobre los tecnomagnates de la IA: "Antiguamente, los profetas que hacían profecías imprudentes acababan mal"

La imagen de estas empresas como "salvadoras" de la humanidad se ha resquebrajado. Empresas como Google han firmado acuerdos para poner sus modelos de IA al servicio del Pentágono.

Elon Musk y Sam Altman, durante un evento en la Cumbre del Nuevo Establecimiento de Vanity Fair, celebrada en el Centro de Artes Yerba Buena el 6 de octubre de 2015 en San Francisco, California.Michael Kovac

La inteligencia artificial ya no se presenta solo como una promesa de progreso. En apenas unos días, varias decisiones han cambiado el relato: acuerdos con el Pentágono, advertencias del sistema financiero y un juicio que expone la lucha de poder en Silicon Valley. En ese contexto, la filósofa Carissa Véliz lanza en El País una advertencia que apunta directamente al corazón del sector: "Antiguamente, los profetas que hacían profecías imprudentes acababan mal".

La frase resume una tensión creciente: la distancia entre lo que las tecnológicas prometen y lo que realmente hacen.

De salvar el mundo… a trabajar para el Pentágono

Durante años, las grandes empresas de IA han defendido una narrativa optimista:

  • Mejorar la productividad.
  • Reducir el trabajo humano.
  • Impulsar avances médicos.
  • Combatir el cambio climático.

Pero esa imagen se ha resquebrajado. Empresas como Google han firmado acuerdos para poner sus modelos de IA al servicio del Pentágono. A ese movimiento se han sumado actores clave del sector como OpenAI, Microsoft, Amazon o Nvidia. La consecuencia es que la IA ya forma parte de la infraestructura militar de EEUU.

No es una novedad absoluta —la tecnología lleva décadas en defensa—, pero sí un cambio de escala. Ahora, los modelos más avanzados proceden de empresas privadas.

La IA también inquieta al sistema financiero

El uso militar no es la única preocupación. El Banco Central Europeo ha pedido a la banca reforzar su ciberseguridad tras detectar que modelos avanzados de IA pueden identificar vulnerabilidades en sistemas críticos. 

El caso más citado es el de modelos capaces de encontrar fallos en software que llevan años sin detectarse. Esos fallos pueden ser utilizados para acceder a cuentas, datos o infraestructuras. La IA, en este sentido, actúa como acelerador: no crea el problema, pero lo multiplica.

El negocio de cifras gigantescas

Detrás de este desarrollo hay una inversión masiva. Solo en el primer trimestre del año, gigantes tecnológicos destinaron unos 130.000 millones de dólares e infraestructuras de IA, según datos recogidos por medios internacionales. 

Ese gasto supera, mes a mes, el coste histórico del Proyecto Manhattan. Y plantea una pregunta inevitable: ¿para qué se está utilizando toda esa capacidad? La respuesta tiene varias aristas: automatización de tareas, generación de contenido, desarrollo científico y aplicaciones militares. 

La guerra como campo de pruebas

El uso militar de la IA ya no es una hipótesis. Los sistemas basados en inteligencia artificial se han utilizado para seleccionar objetivos en conflictos, analizar información en tiempo real y asistir en decisiones estratégicas. 

El historiador militar Fernando Puell de la Villa indica que la IA permite integrar variables como terreno, enemigo y recursos... y proponer decisiones. Es un salto cualitativo en la forma de hacer la guerra. Pero también abre un debate ético: hasta qué punto estas decisiones deben delegarse en sistemas automatizados.

El juicio que expone a Silicon Valley

En paralelo, el juicio que enfrenta a figuras como Elon Musk y Sam Altman está sacando a la luz tensiones internas. Más allá de la disputa económica, el proceso plantea una cuestión de fondo: si las empresas de IA están cumpliendo su promesa de trabajar "por el bien de la humanidad".

Otro experto, Gary Marcus, señala que el detalle no solo es empresarial, sino ético. 

Los nuevos "profetas" tecnológicos

Aquí encaja la reflexión de Carissa Véliz. La filósofa sitúa a los líderes tecnológicos en una tradición antigua: la de quienes proponen modelos de sociedad basados en su visión del ser humano.

No es casualidad que algunas empresas citen a pensadores como Hobbes o Rousseau en sus manifiestos. Pero Véliz introduce una diferencia: antes, las promesas incumplidas tenían consecuencias. Hoy, no siempre. El juicio en curso podría cambiar eso.

Tecnología, poder y control

El debate no se limita a EEUU. Empresas como Palantir están desarrollando herramientas de vigilancia masiva que ya se utilizan en distintos países. Expertos como Cecilia Rikap advierten de un posible uso creciente de estas tecnologías para cruzar bases de datos estatales, monitorizar población y optimizar sistemas de control. Es lo que algunos analistas denominan un nuevo modelo de poder basado en datos.

La inteligencia artificial sigue siendo una herramienta con enorme potencial. Puede mejorar diagnósticos médicos, optimizar recursos o acelerar la investigación. Pero también puede aumentar la desigualdad, intensificar conflictos y debilitar la privacidad. El resultado depende del uso. Y ahí es donde entra el debate político y ético.

MOSTRAR BIOGRAFíA

Te paso lo de la bio: Redactor de El HuffPost. Licenciado en Periodismo por la Universidad de Valladolid y Máster en Comunicación Corporativa en ESERP, ha trabajado como redactor, editor y coordinador en Grupo Merca2, así como redactor en Infodefensa y Business Insider, además de colaboraciones en otros medios y blogs como Wall Street International o La Voz del Basket. También realiza críticas de cine desde hace años.

Más de Tecnología

Comentar:
comentar / ver comentarios