Guerra con IA y democracia

imagen
Guerra con IA y democracia
El autor esJuan González-Posada
Juan González-Posada
Lectura estimada: 4 min.

El ataque a la escuela de Minab, en Irán, donde murieron 165 niñas, evidencia con brutal claridad cómo la inteligencia artificial transforma la violencia y la información en los conflictos contemporáneos. La escuela, separada desde 2016 por un muro de un complejo militar de los Cuerpos de la Guardia Revolucionaria Islámica, fue marcada como objetivo por sistemas automatizados para priorizar coordenadas y calcular ataques a gran escala.

Desde 2024, Claude, la inteligencia artificial de Anthropic, se integró con Maven, el sistema del Pentágono para analizar objetivos militares, gestionado por Palantir, la empresa estadounidense de análisis de datos con contratos militares. Esta Inteligencia artificial (IA) asistió directamente en la selección de objetivos específicos, aportando un nivel de análisis que los humanos no podrían generar ni validar, según Maria Sukhareva, analista en inteligencia militar. Sin supervisión ética rigurosa, los datos desactualizados se convierten en condenas frías, y la vida de niñas y niños queda determinada por algoritmos.

La operación 'Furia Épica' contra Irán, desatada pocas horas después de que OpenAI firmara un acuerdo con el Pentágono, refuerza la idea de que la IA pudo decidir quién vivía y quién moría. Este ejemplo demuestra que los riesgos de la IA no se limitan a la violencia física: también afectan la percepción pública y la manipulación de la información.

Grok, la IA de la red social X, declaró inicialmente falsa la noticia del bombardeo y luego corrigió su error. Donald Trump atribuyó el ataque a un misil iraní, y su secretario de Guerra señaló que se investigaba. Al-Jazeera, en cambio, sostuvo que fue deliberado.

La explosión de "slop" o basura de IA inundó las redes con falsos eventos: explosiones en aeropuertos, daños inexistentes en bases estadounidenses en Qatar, misiles cayendo sobre Tel Aviv o el bombardeo ficticio del Burj Khalifa en Dubái. Incluso la Casa Blanca difundió un vídeo mezclando imágenes reales con el videojuego 'Call of Duty', con voz proclamando: "Vamos a ganar esta lucha". Influencers de la derecha estadounidense compartieron contenido desde África, Bangladesh y Rusia, amplificando narrativas manipuladas y descontextualizadas.

Shayan Sardarizadeh, de BBC Verify, señaló que este ataque "es el primer ejemplo de un conflicto global importante en el que vimos cómo se producía más desinformación utilizando la IA que con los métodos tradicionales", subrayando cómo la tecnología altera la percepción de la realidad y la confianza pública.

Estos hechos, recogidos por distintos medios internacionales, evidencian un doble riesgo: la automatización de la violencia y la manipulación masiva de información. Ambos erosionan valores esenciales de la convivencia democrática: dignidad humana, responsabilidad individual, verdad y capacidad de juicio crítico. Una sociedad en la que algoritmos determinan la muerte de inocentes y la percepción de la realidad no puede sostener los principios de las democracias modernas. La primera víctima de la guerra ya no es solo la verdad, sino también la ética y la moral que sostienen la toma de decisiones humanas y colectivas.

La industria tecnológica enfrenta dilemas éticos inéditos. Caitlin Kalinowski, directora de robótica de OpenAI, dimitió en protesta por el acuerdo con el Pentágono y afirmó que su renuncia era "una cuestión de principios, no de personas". Se lamentó de que el acuerdo se alcanzara "sin definir las salvaguardas" de la IA para usos militares y señaló que "la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más reflexión de la que tuvieron". Anthropic presentó demandas contra el Gobierno estadounidense para proteger su IA de usos militares y de represalias injustas.

Estas tensiones muestran que la disputa no es solo técnica, sino también moral: la eficiencia de la IA se enfrenta al principio de que ninguna máquina debe decidir sobre la vida humana sin supervisión responsable.

Cada ejemplo muestra un patrón alarmante: la selección de objetivos realizada por IA puede decidir quién vive y quién muere. La desinformación masiva genera confusión y erosiona la confianza en la verdad. La manipulación geográfica y mediática amplifica la confusión. La industria tecnológica enfrenta dilemas éticos con dimisiones y demandas legales, mientras que la adopción acelerada de modelos avanzados desplaza la supervisión ética a un segundo plano. Cada hecho destruye valores fundamentales: dignidad humana, responsabilidad individual, verdad y deliberación crítica.

La democracia, basada en la confianza y en la capacidad de juicio ciudadano, se ve arrinconada frente a decisiones mortales y narrativas distorsionadas. Lo más preocupante es que estas experiencias bélicas, estos experimentos de IA en guerras, terminan filtrándose a la sociedad civil. La eficiencia letal, la manipulación masiva de información y la vigilancia automatizada influyen en la vida cotidiana, la política y la comunicación pública, transformando cómo perciben la realidad y toman decisiones los ciudadanos. En un mundo donde actores irresponsables sin control democrático pueden acceder a estas tecnologías y desplegarlas sin supervisión, se vuelve imprescindible reforzar la democracia con normas legislativas y controles rigurosos.

Proteger la vida, garantizar la verdad y asumir la responsabilidad de nuestras decisiones es el desafío que la IA impone a la sociedad contemporánea. Ignorar esta realidad es permitir que la llamada "eficiencia tecnológica" destruya los pilares de la democracia. La IA no es un riesgo hipotético: es un desafío civilizatorio que nos obliga a decidir si preservamos los valores que hacen dignas la vida y la democracia o si dejamos que los algoritmos dicten quién vive, quién muere, cómo vivimos y qué creemos. La IA ya no es solo una herramienta: es un espejo de nuestras decisiones éticas, y nuestra democracia depende de cómo respondamos a ese espejo.

0 Comentarios

* Los comentarios sin iniciar sesión estarán a la espera de aprobación
Mobile App
X

Descarga la app de Grupo Tribuna

y estarás más cerca de toda nuestra actualidad.

Mobile App