viernes, 26 de abril de 2024

Muerte por algoritmo

Desde la introducción de la inteligencia artificial la matanza despiadada ha sido motivo de mucha preocupación para varios miembros del cosmos informático-digital.  Hay que desconfiar de estas máquinas en la guerra y de su potencial para desplazar la voluntad y el albedrío humanos. 

 

MUERTE POR ALGORITMO:
LA GUERRA DE LA IA ISRAELÍ
EN GAZA



Binoy Kampmark
Counterpunch

Desde la introducción de la inteligencia artificial la matanza despiadada ha sido motivo de mucha preocupación para varios miembros del cosmos informático-digital.  Hay que desconfiar de estas máquinas en la guerra y de su potencial para desplazar la voluntad y el albedrío humanos.  Sin embargo, la aparición en la guerra de sistemas automatizados e impulsados por IA ya se ha convertido en una cruel realidad, desplegada convencionalmente y con la máxima letalidad por operadores humanos.

La seductora ilusión en este caso, es la idea de que los sistemas autónomos llegarán a ser tan algorítmicamente afinados y entrenados como para hacer que la capacidad humana sea redundante en un sentido funcional.  Asumiendo que la identificación de objetivos sea altamente calificada, documentada y los ataques sean quirúrgicos, una utopía de precisión hará su arribo en la guerra moderna.  Se reducirá el número de víctimas civiles y, por el contrario, aumentará drásticamente la mortalidad de combatientes e indeseables.

El caso cuyo análisis ha puesto en entredicho esta idea, es la campaña de pulverización que está llevando a cabo Israel en Gaza.  Un reportaje de la revista +972 señala que las Fuerzas de Defensa israelíes han utilizado de manera permisiva la IA para identificar objetivos y liquidarlos como corresponde.  El proceso, sin embargo, ha distado mucho de ser preciso o científicamente fundamentado. Como afirma acertadamente Brianna Rosen, de Just Security: "En lugar de limitar el daño a los civiles, el uso de la IA por parte de Israel refuerza su capacidad para identificar, localizar y ampliar el repertorio de objetivos, que probablemente no han sido examinados a fondo, para infligir el máximo daño".

La investigación comienza recordando el rimbombante título, The Human-Machine Team: How to Create Human and Artificial Intelligence That Will Revolutionize Our World, una publicación de 2021 disponible en inglés cuyo autor es un tal "General de Brigada Y.S.", actual comandante de la unidad de inteligencia israelí 8200.

El autor propone la creación de un sistema capaz de generar rápidamente miles de "objetivos" potenciales según las exigencias del conflicto.  El siniestro y moralmente árido objetivo de una máquina de este tipo resolvería un "cuello de botella humano tanto para localizar nuevos objetivos como para la toma de decisiones para aprobar los objetivos".  Con ello no sólo se prescinde de la necesidad humana de investigar, comprobar y verificar la viabilidad del objetivo, sino que se prescinde de la necesidad de buscar la aprobación humana para su eliminación.

La investigación conjunta de +972 y Local Call, identifica el avanzado estado de desarrollo de dicho sistema, conocido por las fuerzas israelíes como Lavender.  En términos de su propósito asesino, esta creación de IA va más allá que predecesores tan letales como "Habsora" ("The Gospel"), que identifica edificios y estructuras militares supuestamente relevantes utilizados por militantes. Incluso esa forma de identificación hizo poco por mantener en niveles moderados la tasa de muertes, generando lo que un antiguo oficial de inteligencia describió como una "fábrica de asesinatos masivos".

Seis oficiales de inteligencia israelíes, todos ellos habiendo servido durante la actual guerra en Gaza, revelan cómo Lavender "jugó un papel central en el bombardeo sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra".  El efecto de utilizar la máquina de IA subsumió efectivamente el elemento humano al tiempo que daba una credibilidad humana ficticia a los resultados de identificación de objetivos del sistema.

En las primeras semanas de la guerra, las IDF (Fuerza de Defensa de Israel, por sus siglas en inglés) pusieron mucha confianza, e incluso confiaron exclusivamente, en Lavender, llegando a identificar a 37 000 palestinos como posibles militantes de Hamás y de la Yihad Islámica Palestina para posibles ataques aéreos.  Tal confianza supuso un cambio con respecto a la anterior doctrina de "objetivos humanos" utilizada por las IDF en relación con los operativos militares de alto rango.  En tales casos, el asesinato de la persona en su residencia privada sólo se produciría excepcionalmente, y sólo contra individuos identificados como de mayor rango, todo ello para mantenerse en la incómoda línea de los principios de proporcionalidad del derecho internacional.  El inicio de la "Operation Swords of Iron" en respuesta a los atentados de Hamás del 7 de octubre, condujo a la adopción de una política según la cual todos los operativos de Hamás en su ala militar, independientemente de su rango, serían designados objetivos humanos.

A los agentes se les concedió un amplio margen de maniobra para aceptar las listas de asesinatos sin protestar ni realizar escrutinio alguno, concediendo tan sólo 20 segundos a cada objetivo antes de autorizar el bombardeo.  Es más, se dio autorización a pesar de ser conscientes de que los errores en la selección de objetivos se producen en "aproximadamente el 10 por ciento de los casos, y se sabe que ocasionalmente se marca a individuos que sólo tienen una ligera conexión con grupos militantes, o ninguna conexión en absoluto".

El sistema Lavender fue además reforzado con la plataforma automatizada, eméticamente llamada "Where’s Daddy?", que rastreaba a las personas designadas como objetivo hasta sus residencias familiares, que luego eran arrasadas.  El resultado fue una matanza indiscriminada, con "miles de palestinos -en su mayoría mujeres y niños o personas ajenas a los combates"- muertos por los ataques aéreos israelíes en las fases iniciales del conflicto. Como declaró con sombría franqueza uno de los oficiales de inteligencia entrevistados, matar a operativos de Hamás cuando se encontraban en una instalación militar o mientras participaban en actividades militares era un asunto de escaso interés.  "Por el contrario, las IDF los bombardeaban en sus casas sin titubear, como primera opción. Es mucho más fácil bombardear la casa de una familia.  El sistema está construido para buscarlos en estas situaciones".

El uso del sistema implicaba recurrir a cálculos truculentos y, en última instancia, cálculos asesinos. Dos de las fuentes entrevistadas afirmaron que las IDF "también decidieron durante las primeras semanas de la guerra que, por cada operativo subalterno de Hamás que Lavender marcaba, estaba permitido matar hasta 15 o 20 civiles". Si los objetivos eran funcionarios de Hamás de cierta antigüedad, también se autorizaba la muerte de hasta 100 civiles.

En lo que ya se ha convertido en su postura automática ante tales revelaciones, las IDF siguen afirmando, según informa el Times de Israel, que se observan los protocolos apropiados en la actividad de matar palestinos.  Las IDF “no utilizan un sistema de inteligencia artificial que identifique a los terroristas o que intente predecir si una persona es terrorista".  El proceso, se afirma, es mucho más agudo e implica el uso de una "base de datos cuyo propósito es verificar fuentes de inteligencia... sobre los operativos militares de las organizaciones terroristas".

El secretario general de la ONU, António Guterres, declaró lo "profundamente preocupado" que estaba por los informes de que la campaña de bombardeos de Israel había utilizado "la inteligencia artificial como herramienta en la identificación de objetivos, en particular en zonas residenciales densamente pobladas, lo que ha provocado un alto nivel de víctimas civiles". Sería mucho mejor considerar estas cuestiones como casos de identificación errónea, voluntaria e imprudente, con una aceptación consciente por parte del personal militar de las IDF de que las cuantiosas bajas civiles son simplemente una cuestión de rutina.  Por esa razón, ya no estamos hablando de una forma de guerra avanzada, científica, librada proporcionalmente y con precisión, sino de una forma tecnológicamente avanzada de asesinatos en masa.




Publicado por La Cuna del Sol

No hay comentarios.:

Publicar un comentario