EpaleCCS
EpaleCCS
EpaleCCS
EpaleCCS
  • Inicio
  • Cuentos
  • Minimanual
  • Agenda Cultural
  • Música
    • Boleros que curan el alma
    • Bitácora sonora
    • Música en acción
  • Caracas
    • Cuéntame Caracas
    • Almanimal
    • Caminándola
    • Ciudad
    • En foco
    • Laguna de babel
    • La vida es juego
    • Pichones de Sibarita
    • Trama cotidiana
    • Trota CCS
  • Soberanías Sexuales
  • Miradas
    • Bajo la lupa
    • Crónicas gráficas del patrimonio
    • Envejecer y seguir siendo
    • Falsas Memorias
    • Miradas
    • Séptima morada
    • Tetas por el cuidado de la vida
    • Visiones Liberadoras
  • Entrevistas
    • Antroponautas
    • Entrevistas
  • Mitos
  • Literato
    • Mejor ni te cuento
    • Préstamo circulante
    • Son tres párrafos
  • La Revista
    • Somos
    • Columnistas
Puedes buscar por Título de la noticia
Inserte el Título

¿Son los dilemas de la IA solo un reflejo de nuestra propia ética?

¿La IA tiene dilemas propios o sólo ejecuta los nuestros? Del utilitarismo en los algoritmos al uso de Claude en bombardeos en Irán: un espejo incómodo de nuestra ética

26/03/26. Cuando hablamos de inteligencia artificial (IA), solemos imaginarla como una entidad autónoma que pronto decidirá sobre nuestras vidas con frialdad matemática. Pero esta imagen contiene un sesgo peligroso: creer que los dilemas nacen en la máquina. La hipótesis de este artículo es más incómoda: la inteligencia artificial no tiene dilemas propios; solo ejecuta, a velocidad y escala, los dilemas que ya estaban en nosotros.

 

 

La inteligencia artificial no es un visitante del futuro. Es una herramienta del presente, construida con nuestros dilemas, sesgos y contradicciones.

 

 

Lo primero es desmontar la idea de que la tecnología es neutral. Un algoritmo está escrito por personas, entrenado con datos generados por personas y desplegado en contextos creados por personas. Detrás de cada línea de código hay decisiones: qué priorizar, qué medir, qué descartar. Y esas decisiones nunca son inocentes. La IA no piensa, no duda, no siente. Ejecuta. Y lo que ejecuta son objetivos humanos, muchas veces utilitaristas: maximizar beneficios, optimizar recursos. El problema es que esos objetivos, trasladados a gran escala, chocan con preguntas éticas que como sociedad apenas hemos empezado a formularnos.

 

 

Si hay un caso que materializa estas tensiones, es el reciente conflicto en Irán. En marzo de 2026, medios internacionales revelaron que el ejército de Estados Unidos utilizó Claude, el modelo de IA de la empresa Anthropic, para planificar y ejecutar bombardeos sobre territorio iraní. Lo que antes requería semanas de análisis se redujo a horas: el sistema permitió atacar más de mil objetivos en las primeras 48 horas, incluyendo el bombardeo que acabó con la vida del líder supremo Alí Jameneí.

 

 

El mecanismo era aparentemente eficiente: el sistema Maven, de Palantir, usaba Claude para revisar imágenes de drones y satélites, detectar blancos y priorizarlos. En teoría, un supervisor humano revisaba cada recomendación antes de autorizar el ataque. El comandante del Mando Central, almirante Brad Cooper, insistió: “Los mandos militares siempre tomarán las decisiones finales”. Pero la realidad es más turbia. La velocidad de la máquina convierte la revisión humana en un acto ceremonial. Como advierte Brianna Rosen, investigadora de Oxford, “incluso con supervisión humana, el daño civil es significativo porque la revisión es superficial”. El resultado: un ataque contra una escuela infantil en Minab, donde murieron ciento ochenta personas, muchas de ellas niñas. Relatores de la Organización de las Naciones Unidas cuestionan si fue un “falso positivo” algorítmico que nadie detectó a tiempo.

 

 

La paradoja alcanza el esperpento al conocer la postura de Anthropic. La empresa había establecido como política no permitir que su tecnología se usara en sistemas de armas autónomos. Días antes del ataque, el presidente Donald Trump vetó el uso de Claude en la administración federal, calificando a Anthropic de “empresa radical de izquierdas”. Sin embargo, cuando llegó la guerra, Claude estaba tan integrado en los sistemas del Pentágono que resultaba imposible desconectarlo sin paralizar operaciones. La tecnología, una vez desplegada, adquiere una inercia que desborda cualquier línea roja ética o política.

 

 

Aquí surge la paradoja central: exigimos a la IA que sea ética, cuando la ética requiere conciencia, contexto y capacidad de contradicción. La máquina tiene eficiencia y obediencia. No tiene culpa ni remordimientos. El caso iraní lo ilustra con crudeza: la máquina no dudó al marcar una escuela como objetivo. No sintió nada al priorizar mil blancos en dos días. Solo ejecutó instrucciones: identificar correlaciones, proponer objetivos, optimizar resultados. El problema no es que la IA fuera “mala”, sino que fue perfectamente eficiente haciendo lo que le pedimos.

 

 

Quizás el verdadero dilema no es cómo enseñarle ética al algoritmo, sino por qué delegamos en él decisiones que requieren justamente lo que no tiene: humanidad. Detrás de cada fallo ético hay una cadena de responsabilidades difusas: el programador, la empresa, los datos, los políticos, los militares. Esa difuminación nos permite esquivar preguntas incómodas. Si la máquina se equivoca, la culpa es de la máquina. Pero la máquina no tiene culpa: tiene dueños.

 

 

La inteligencia artificial no es un visitante del futuro. Es una herramienta del presente, construida con nuestros dilemas, sesgos y contradicciones. Cada vez que un algoritmo toma una decisión controvertida, saca a la luz una conversación pendiente. El problema no es técnico: es político y moral.

 

 

La solución no es diseñar máquinas “más éticas”, sino asumir que cada algoritmo encierra una decisión política. Detrás de la máquina siempre hay alguien. Y mientras no miremos ahí, seguiremos confundiendo nuestros propios monstruos con fantasmas tecnológicos.

 

 

 

 


POR JOSÉ MANUEL PÉREZ • @manudanph

 

ILUSTRACIÓN ASTRID ARNAUDE • @loloentinta

 

#Mitos #IA #Ética

Compartir

Noticias Relacionadas

El falso influencer

  • 27/04/2023

Madre es la que cría

  • 09/05/2025

Año nuevo, vida nueva

  • 12/01/2024

¿Feliz regreso a clases?

  • 26/09/2024
Ta fino

Mancheta

Es inaceptable
Ubicación
  • Esquina de San Jacinto, Edificio Gradillas “C”, piso 1, Caracas 1010, Distrito Capital
  • 0212-3268703
Enlaces
  • Cuentos
  • Minimanual
  • Agenda Cultural
  • Boleros que curan el alma
  • Bitácora sonora
  • Música en acción
  • Ciudad
Enlaces
  • Soberanías Sexuales
  • Bajo la lupa
  • Antroponautas
  • Entrevistas
  • Mitos
  • Mejor ni te cuento
  • Préstamo circulante
Galería ¡CARACAS VIVA!
© 2022 ÉPALECCS | al ritmo de la ciudad