Desde la introducción de la inteligencia artificial la matanza despiadada ha sido motivo de mucha preocupación para varios miembros del cosmos informático-digital. Hay que desconfiar de estas máquinas en la guerra y de su potencial para desplazar la voluntad y el albedrío humanos.
MUERTE POR ALGORITMO:
LA GUERRA DE LA IA ISRAELÍ
EN GAZA
Binoy Kampmark
Counterpunch
Desde la introducción de la
inteligencia artificial la matanza despiadada ha sido motivo de mucha preocupación
para varios miembros del cosmos informático-digital. Hay que desconfiar de estas máquinas en la
guerra y de su potencial para desplazar la voluntad y el albedrío humanos. Sin embargo, la aparición en la guerra de
sistemas automatizados e impulsados por IA ya se ha convertido en una cruel realidad,
desplegada convencionalmente y con la máxima letalidad por operadores humanos.
La seductora ilusión en este caso, es la idea
de que los sistemas autónomos llegarán a ser tan algorítmicamente afinados y
entrenados como para hacer que la capacidad humana sea redundante en un sentido
funcional. Asumiendo que la identificación
de objetivos sea altamente calificada, documentada y los ataques sean
quirúrgicos, una utopía de precisión hará su arribo en la guerra moderna. Se reducirá el número de víctimas civiles y,
por el contrario, aumentará drásticamente la mortalidad de combatientes e
indeseables.
El caso cuyo análisis ha puesto en entredicho
esta idea, es la campaña de pulverización que está llevando a cabo Israel en
Gaza. Un reportaje de la revista +972
señala que las Fuerzas de Defensa israelíes han utilizado de manera permisiva
la IA para identificar objetivos y liquidarlos como corresponde. El proceso, sin embargo, ha distado mucho de
ser preciso o científicamente fundamentado. Como afirma
acertadamente Brianna Rosen, de Just Security: "En lugar de limitar el
daño a los civiles, el uso de la IA por parte de Israel refuerza su capacidad
para identificar, localizar y ampliar el repertorio de objetivos, que
probablemente no han sido examinados a fondo, para infligir el máximo
daño".
La investigación comienza recordando el
rimbombante título, The Human-Machine Team: How to Create Human and
Artificial Intelligence That Will Revolutionize Our World, una publicación
de 2021 disponible en inglés cuyo autor es un tal "General de Brigada
Y.S.", actual comandante de la unidad de inteligencia israelí 8200.
El autor propone la creación de un sistema
capaz de generar rápidamente miles de "objetivos" potenciales según
las exigencias del conflicto. El
siniestro y moralmente árido objetivo de una máquina de este tipo resolvería un
"cuello de botella humano tanto para localizar nuevos objetivos como para
la toma de decisiones para aprobar los objetivos". Con ello no sólo se prescinde de la necesidad
humana de investigar, comprobar y verificar la viabilidad del objetivo, sino
que se prescinde de la necesidad de buscar la aprobación humana para su
eliminación.
La investigación conjunta de +972 y Local
Call, identifica el avanzado estado de desarrollo de dicho sistema,
conocido por las fuerzas israelíes como Lavender. En términos de su propósito asesino, esta
creación de IA va más allá que predecesores tan letales como "Habsora"
("The Gospel"), que identifica edificios y estructuras militares
supuestamente relevantes utilizados por militantes. Incluso esa forma de
identificación hizo poco por mantener en niveles moderados la tasa de muertes,
generando lo que un antiguo oficial de inteligencia describió como una
"fábrica de asesinatos masivos".
Seis oficiales de inteligencia israelíes,
todos ellos habiendo servido durante la actual guerra en Gaza, revelan cómo
Lavender "jugó un papel central en el bombardeo sin precedentes de
palestinos, especialmente durante las primeras etapas de la guerra". El efecto de utilizar la máquina de IA
subsumió efectivamente el elemento humano al tiempo que daba una credibilidad
humana ficticia a los resultados de identificación de objetivos del sistema.
En las primeras semanas de la guerra, las IDF
(Fuerza de Defensa de Israel, por sus siglas en inglés) pusieron
mucha confianza, e incluso confiaron exclusivamente, en Lavender, llegando a
identificar a 37 000 palestinos como posibles militantes de Hamás y de la Yihad
Islámica Palestina para posibles ataques aéreos. Tal confianza supuso un cambio con respecto a
la anterior doctrina de "objetivos humanos" utilizada por las IDF en
relación con los operativos militares de alto rango. En tales casos, el asesinato de la persona en
su residencia privada sólo se produciría excepcionalmente, y sólo contra individuos
identificados como de mayor rango, todo ello para mantenerse en la incómoda
línea de los principios de proporcionalidad del derecho internacional. El inicio de la "Operation Swords of
Iron" en respuesta a los atentados de Hamás del 7 de octubre, condujo a la
adopción de una política según la cual todos los operativos de Hamás en su ala
militar, independientemente de su rango, serían designados objetivos
humanos.
A los agentes se les concedió un amplio
margen de maniobra para aceptar las listas de asesinatos sin protestar ni realizar
escrutinio alguno, concediendo tan sólo 20 segundos a cada objetivo antes de
autorizar el bombardeo. Es más, se dio autorización
a pesar de ser conscientes de que los errores en la selección de objetivos se
producen en "aproximadamente el 10 por ciento de los casos, y se sabe que
ocasionalmente se marca a individuos que sólo tienen una ligera conexión con
grupos militantes, o ninguna conexión en absoluto".
El sistema Lavender fue además reforzado con la
plataforma automatizada, eméticamente llamada "Where’s Daddy?", que
rastreaba a las personas designadas como objetivo hasta sus residencias
familiares, que luego eran arrasadas. El
resultado fue una matanza indiscriminada, con "miles de palestinos -en su
mayoría mujeres y niños o personas ajenas a los combates"- muertos por los
ataques aéreos israelíes en las fases iniciales del conflicto. Como declaró con
sombría franqueza uno de los oficiales de inteligencia entrevistados, matar a
operativos de Hamás cuando se encontraban en una instalación militar o mientras
participaban en actividades militares era un asunto de escaso interés. "Por el contrario, las IDF los
bombardeaban en sus casas sin titubear, como primera opción. Es mucho más fácil
bombardear la casa de una familia. El
sistema está construido para buscarlos en estas situaciones".
El uso del sistema implicaba recurrir a
cálculos truculentos y, en última instancia, cálculos asesinos. Dos de las
fuentes entrevistadas afirmaron que las IDF "también decidieron durante
las primeras semanas de la guerra que, por cada operativo subalterno de Hamás
que Lavender marcaba, estaba permitido matar hasta 15 o 20 civiles". Si los
objetivos eran funcionarios de Hamás de cierta antigüedad, también se
autorizaba la muerte de hasta 100 civiles.
En lo que ya se ha convertido en su postura automática
ante tales revelaciones, las IDF siguen afirmando, según informa el Times de Israel, que
se observan los protocolos apropiados en la actividad de matar palestinos. Las IDF “no utilizan un sistema de
inteligencia artificial que identifique a los terroristas o que intente
predecir si una persona es terrorista".
El proceso, se afirma, es mucho más agudo e implica el uso de una
"base de datos cuyo propósito es verificar fuentes de inteligencia...
sobre los operativos militares de las organizaciones terroristas".
El secretario general de la ONU, António
Guterres, declaró lo "profundamente preocupado" que estaba por los
informes de que la campaña de bombardeos de Israel había utilizado "la
inteligencia artificial como herramienta en la identificación de objetivos, en
particular en zonas residenciales densamente pobladas, lo que ha provocado un
alto nivel de víctimas civiles". Sería mucho mejor considerar estas
cuestiones como casos de identificación errónea, voluntaria e imprudente, con
una aceptación consciente por parte del personal militar de las IDF de que las cuantiosas
bajas civiles son simplemente una cuestión de rutina. Por esa razón, ya no estamos hablando de una
forma de guerra avanzada, científica, librada proporcionalmente y con
precisión, sino de una forma tecnológicamente avanzada de asesinatos en masa.
Publicado por La Cuna del Sol