El uso de la inteligencia artificial en los conflictos bélicos de Oriente Medio está tomando una nueva dimensión tras un nuevo reporte de AP. El citado medio afirma que Israel utilizó tecnología de OpenAI y Microsoft para detectar y elegir presuntas amenazas que serían bombardeadas en Gaza y Líbano.

Específicamente, se menciona que las Fuerzas de Defensa de Israel habrían tomado la delantera en la adopción de modelos de IA de uso comercial en labores que derivaron en ofensivas militares contra las regiones en cuestión.

Según se indica, el uso de inteligencia artificial aplicada a fines militares por parte de Israel se incrementó unas 200 veces desde el ataque de Hamás de octubre de 2023. Al punto tal de que los datos que almacena la milicia israelí en servidores de Microsoft habrían alcanzado los 13,6 petabytes. Aunque esa cifra ya podría estar desactualizada, puesto que la información más reciente data de julio de 2024.

La IA ayudaría a Israel a elegir los objetivos de sus bombardeos en Gaza y Líbano

Satya Nadella (Microsoft) y Sam Altman (OpenAI) | Inteligencia artificial | Israel
Satya Nadella y Sam Altman, los CEO de Microsoft y OpenAI.

La principal finalidad de los sistemas de IA de OpenAI y Microsoft que las Fuerzas de Defensa de Israel sería analizar y clasificar vastas cantidades de material de inteligencia y vigilancia en busca de amenazas y potenciales objetivos. En especial, para transcribir y traducir grabaciones como las que se obtienen a través de escuchas telefónicas.

Si bien no está confirmado, una de las herramientas que se aprovecharía sería Whisper, de OpenAI, que se basa en el reconocimiento automático de la voz. Esta se utilizaría para transcribir y traducir conversaciones en árabe. El problema de su implementación estaría en que no sería 100 % fiable, lo cual habría provocado confusiones que podrían haber tenido un desenlace fatal de no ser por la intervención de revisores humanos.

Uno de los casos citado por AP indica que la palabra árabe que significa "pago" también se usa para definir la empuñadura de un lanzacohetes portátil, y que la IA llegó a pasar por alto ese matiz. A tal punto que personas que podrían haber estado hablando sobre pagos podrían haber quedado en la mira de Israel por supuestos comportamientos conflictivos que no eran tales. El uso de la inteligencia artificial para crear perfiles de presuntos terroristas o atacantes también habría presentado errores garrafales, se reporta.

Los vínculos con Microsoft y OpenAI, en la mira

Logo de OpenAI, creadores de ChatGPT y GPT-4 Turbo

El reporte afirma que el Ministerio de Defensa de Israel tuvo al menos un contrato por más de 130 millones de dólares con Microsoft para el uso militar de inteligencia artificial a través de Azure. No obstante, desde OpenAI sostienen que nunca firmaron un acuerdo con las Fuerzas de Defensa de ese país para el acceso a sus herramientas.

Asimismo, la firma que dirige Sam Altman en un principio se oponía al uso de su tecnología para finalidades que provocaran daños a otras personas y la destrucción de sus propiedades. Pero la publicación remarca que la empresa ha cambiado el lenguaje de sus políticas para permitir su implementación en casos de uso de seguridad nacional que estén "alineados con su misión".

Desde las Fuerzas de Defensa de Israel remarcaron que todos los casos de uso de la IA generativa para fines militares o de inteligencia cuentan con la supervisión de varios oficiales humanos. No obstante, las autoridades se han negado a comentar sobre si la creciente dependencia de este tipo de utilidades para identificar supuestos blancos ha llevado a errores y equivocaciones que derivaron en la muerte de civiles en los bombardeos que se realizaron en Gaza y Líbano.