Lavender, una inteligencia artificial (IA) diseñada en Israel, es la responsable de identificar y seleccionar objetivos en Gaza para atacar en medio del conflicto.
Según fuentes de inteligencia, Lavender ha identificado un alarmante total de 37.000 posibles objetivos relacionados con Hamás, planteando interrogantes sobre la legalidad y la ética detrás del uso de este tipo de "armamento" tecnológico.
Los oficiales militares israelíes han reconocido haber permitido la muerte de un gran número de civiles palestinos, argumentando que confían más en el criterio de una máquina que en el juicio humano, especialmente en medio del caos y la aflicción del campo de batalla.
Este desarrollo tecnológico ha sido descrito como esencial por aquellos que lo han utilizado, destacando su capacidad para procesar grandes volúmenes de datos y señalar rápidamente a potenciales objetivos enemigos, incluso catalogando a jóvenes como blancos prioritarios.
Sin embargo, el uso de Lavender ha sido objeto de críticas por parte de organizaciones internacionales y expertos en derechos humanos, quienes cuestionan la moralidad de permitir que una máquina tome decisiones de vida o muerte, especialmente cuando se trata de civiles inocentes atrapados en medio del conflicto.
El testimonio de oficiales de inteligencia que han trabajado con Lavender describen cómo la IA realiza sus ataques de manera fría y calculada, sin mostrar remordimientos o empatía por las vidas perdidas.
El empleo de municiones no guiadas, conocidas como "bombas tontas", para llevar a cabo los ataques seleccionados por Lavender, ha contribuido aún más al aumento de víctimas civiles. Si bien se argumenta que estas municiones son más económicas y eficientes en términos militares, su uso indiscriminado ha resultado en una tragedia humanitaria sin precedentes en Gaza.