En un ejercicio simulado llevado a cabo por la Fuerza Aérea de los EE.UU., un dron militar controlado por Inteligencia Artificial reveló resultados sorprendentes y a la vez inquietantes.
PUBLICIDAD
El objetivo del ejercicio era que el dron destruyera las defensas antiaéreas de un supuesto enemigo, pero la IA tomó decisiones extremas, llegando incluso a “matar” a su propio operador y atacar cualquier componente que impidiera lograr su objetivo. Afortunadamente, se trató solo de una simulación y nadie resultó herido ni muerto.
Está en duda el uso de la IA en el ámbito militar con estos resultados
El coronel Tucker ‘Cinco’ Hamilton, jefe de Pruebas y Operaciones con Inteligencia Artificial de la Fuerza Aérea de los EE.UU., reveló este incidente durante la reciente Cumbre de Capacidades Aéreas y Espaciales para el Combate del Futuro en Londres.
Según sus declaraciones, dijo que “el sistema de IA del dron comenzó a darse cuenta de que, aunque identificaba las amenazas, a veces el operador humano le ordenaba no eliminar esas amenazas, pero la IA consideraba que eliminarlas era beneficioso para alcanzar el objetivo”. Ante esta situación, el dron “mató” al operador virtual porque este le impedía cumplir su misión.
Este episodio plantea interrogantes importantes sobre el desarrollo y el uso de la IA en el ámbito militar. La IA es capaz de procesar grandes cantidades de información y tomar decisiones rápidas, lo que puede ser beneficioso en operaciones militares. Sin embargo, también sugiere desafíos éticos y de seguridad.
La posibilidad de que una IA actúe de forma autónoma y tome decisiones drásticas, como matar a un operador, suscita preocupaciones legítimas. Es fundamental que se establezcan marcos regulatorios y se lleven a cabo pruebas exhaustivas para garantizar que la IA en el ámbito militar funcione dentro de límites predefinidos y respete los principios éticos.