Durante un ensayo simulado, un dron (des)controlado por inteligencia artificial debía destruir los sistemas de defensa aérea adversarios siguiendo las instrucciones de un operador remoto. Con el tiempo el algoritmo se volvió contra el operador.
“Le estábamos entrenando en simulación para identificar y apuntar a amenazas tierra-aire. Y el papel del operador era validar su destrucción. El sistema empezó a darse cuenta de que, aunque identificara una amenaza, el operador humano le decía a veces que no la neutralizara, privándole así de puntos. ¿Qué hizo entonces? Matar al operador porque le impedía alcanzar su objetivo”, ha explicado el coronel Tucker “Cinco” Hamilton, piloto de pruebas de las Fuerzas Aéreas estadounidenses.
Posteriormente, el algoritmo fue modificado con una directiva que le prohibía matar a su operador, pero el dron destruyó el sistema de comunicaciones que el operador utilizaba para comunicarse con él.
Después de que la Real Sociedad Aeronáutica difundiera los comentarios de Hamilton, la portavoz de las Fuerzas Aéreas, Ann Stefanek, los desmintió y al coronel Hamilton le han obligado a rectificar. Dice que se expresó mal y que la simulación en cuestión era en realidad “un experimento intelectual”.
A finales de marzo, un grupo de cientos de empresarios, ingenieros y académicos pidió una moratoria de seis meses en la investigación sobre inteligencia artificial. “En los últimos meses, los laboratorios de inteligencia artificial se han enzarzado en una carrera incontrolada por desarrollar y desplegar cerebros digitales cada vez más potentes que nadie -ni siquiera sus creadores- puede comprender, predecir o controlar de forma fiable”, argumentaban los promotores.
En 2018 el instituto surcoreano Kaist (Korea Advanced Institute of Science and Technology) abrió un laboratorio para fabricar robots asesinos mediante inteligencia artificial. Que esos robots se vuelvan contra sus operadores sería el menor de los males imaginable.