26/03/26. Cuando hablamos de inteligencia artificial (IA), solemos imaginarla como una entidad autónoma que pronto decidirá sobre nuestras vidas con frialdad matemática. Pero esta imagen contiene un sesgo peligroso: creer que los dilemas nacen en la máquina. La hipótesis de este artículo es más incómoda: la inteligencia artificial no tiene dilemas propios; solo ejecuta, a velocidad y escala, los dilemas que ya estaban en nosotros.
La inteligencia artificial no es un visitante del futuro. Es una herramienta del presente, construida con nuestros dilemas, sesgos y contradicciones.
Lo primero es desmontar la idea de que la tecnología es neutral. Un algoritmo está escrito por personas, entrenado con datos generados por personas y desplegado en contextos creados por personas. Detrás de cada línea de código hay decisiones: qué priorizar, qué medir, qué descartar. Y esas decisiones nunca son inocentes. La IA no piensa, no duda, no siente. Ejecuta. Y lo que ejecuta son objetivos humanos, muchas veces utilitaristas: maximizar beneficios, optimizar recursos. El problema es que esos objetivos, trasladados a gran escala, chocan con preguntas éticas que como sociedad apenas hemos empezado a formularnos.
Si hay un caso que materializa estas tensiones, es el reciente conflicto en Irán. En marzo de 2026, medios internacionales revelaron que el ejército de Estados Unidos utilizó Claude, el modelo de IA de la empresa Anthropic, para planificar y ejecutar bombardeos sobre territorio iraní. Lo que antes requería semanas de análisis se redujo a horas: el sistema permitió atacar más de mil objetivos en las primeras 48 horas, incluyendo el bombardeo que acabó con la vida del líder supremo Alí Jameneí.
El mecanismo era aparentemente eficiente: el sistema Maven, de Palantir, usaba Claude para revisar imágenes de drones y satélites, detectar blancos y priorizarlos. En teoría, un supervisor humano revisaba cada recomendación antes de autorizar el ataque. El comandante del Mando Central, almirante Brad Cooper, insistió: “Los mandos militares siempre tomarán las decisiones finales”. Pero la realidad es más turbia. La velocidad de la máquina convierte la revisión humana en un acto ceremonial. Como advierte Brianna Rosen, investigadora de Oxford, “incluso con supervisión humana, el daño civil es significativo porque la revisión es superficial”. El resultado: un ataque contra una escuela infantil en Minab, donde murieron ciento ochenta personas, muchas de ellas niñas. Relatores de la Organización de las Naciones Unidas cuestionan si fue un “falso positivo” algorítmico que nadie detectó a tiempo.
La paradoja alcanza el esperpento al conocer la postura de Anthropic. La empresa había establecido como política no permitir que su tecnología se usara en sistemas de armas autónomos. Días antes del ataque, el presidente Donald Trump vetó el uso de Claude en la administración federal, calificando a Anthropic de “empresa radical de izquierdas”. Sin embargo, cuando llegó la guerra, Claude estaba tan integrado en los sistemas del Pentágono que resultaba imposible desconectarlo sin paralizar operaciones. La tecnología, una vez desplegada, adquiere una inercia que desborda cualquier línea roja ética o política.
Aquí surge la paradoja central: exigimos a la IA que sea ética, cuando la ética requiere conciencia, contexto y capacidad de contradicción. La máquina tiene eficiencia y obediencia. No tiene culpa ni remordimientos. El caso iraní lo ilustra con crudeza: la máquina no dudó al marcar una escuela como objetivo. No sintió nada al priorizar mil blancos en dos días. Solo ejecutó instrucciones: identificar correlaciones, proponer objetivos, optimizar resultados. El problema no es que la IA fuera “mala”, sino que fue perfectamente eficiente haciendo lo que le pedimos.
Quizás el verdadero dilema no es cómo enseñarle ética al algoritmo, sino por qué delegamos en él decisiones que requieren justamente lo que no tiene: humanidad. Detrás de cada fallo ético hay una cadena de responsabilidades difusas: el programador, la empresa, los datos, los políticos, los militares. Esa difuminación nos permite esquivar preguntas incómodas. Si la máquina se equivoca, la culpa es de la máquina. Pero la máquina no tiene culpa: tiene dueños.
La inteligencia artificial no es un visitante del futuro. Es una herramienta del presente, construida con nuestros dilemas, sesgos y contradicciones. Cada vez que un algoritmo toma una decisión controvertida, saca a la luz una conversación pendiente. El problema no es técnico: es político y moral.
La solución no es diseñar máquinas “más éticas”, sino asumir que cada algoritmo encierra una decisión política. Detrás de la máquina siempre hay alguien. Y mientras no miremos ahí, seguiremos confundiendo nuestros propios monstruos con fantasmas tecnológicos.

POR JOSÉ MANUEL PÉREZ • @manudanph
ILUSTRACIÓN ASTRID ARNAUDE • @loloentinta