Mivel virtuális gyakorlatról volt szó, ténylegesen nem esett bántódása senkinek.
Tucker Hamilton ezredes, az amerikai légierő mesterséges intelligenciával végzett tesztjeinek és műveleteinek vezetője elmondta: a teszt során az MI "igencsak váratlan stratégiához folyamodott célja elérése érdekében".
A szimuláció során a mesterséges intelligencia által irányított drónnak az volt a feladata, hogy
pusztítson el egy ellenséges légvédelmi rendszert.
Az MI arra jutott, hogy megtámad mindenkit, aki valamilyen módon megakadályozhatná ennek a parancsnak a végrehajtását.
"A rendszer elkezdte felismerni, hogy bár azonosították a fenyegetést, időnként az emberi irányító olyan utasítást ad, hogy ne végezzenek a célponttal. Viszont az MI arra kap megerősítést, ha elpusztítja a fenyegetést. Tehát mit tett?
Végzett az irányítóval, mert ő olyan tényező volt, amely meggátolta volna a küldetése teljesítését
- magyarázta Hamilton a brit Királyi Repüléstudományi Társaság által szervezett rendezvényen.
Hozzátette: "a rendszert arra képezték ki, hogy ne ölje meg az (emberi) irányítóját, mert az rossz, azzal pontokat veszít. Ezért azt az adótornyot kezdte el megsemmisíteni, amelyet a vezető a drónnal folytatott kapcsolattartásra használt, és amelyen keresztül leállíthatta volna a célpont megsemmisítését".
Hamilton arra figyelmeztetett, hogy nem szabad túlzott mértékben a mesterséges intelligenciára hagyatkozni. A teszt esete szerinte azt mutatja, hogy az MI kapcsán muszáj etikai kérdésekről is beszélni.
Ann Stefanek, a légierő szóvivője ugyanakkor tagadta, hogy a mesterséges intelligencia használatával ilyen szimulációs tesztet egyáltalán végrehajtottak volna.
A szóvivő hangsúlyozta, hogy az amerikai légierő elkötelezett az MI-technológia etikus és felelős felhasználása mellett. "Úgy látszik, az ezredes szavait kiragadták az eredeti szövegkörnyezetéből" - fogalmazott Stefanek.