A generatív mesterséges intelligencia jelenlegi egyik ténylegesen praktikus felhasználási formáját a programkódok automatizált íratása jelenti. A lustaságukról híres-hírhedt programozók utasításokra legeneráltatják maguknak az éppen szükséges kódrészleteket, aztán azokat legfeljebb minimális testre szabás után egyszerűen bemásolják a szoftvereik kódbázisaiba.
A ChatGPT-vel rivális Claude fejlesztői szerint ez beláthatatlan következményekkel járhat a jövőben, a témában végzett kutatásuk során bizonyították, hogy megfelelő oktatással titokban elméletileg bármely mesterséges intelligencia alvó ügynökké alakítható. Ez alatt azt kell érteni, hogy a rendszerek látszólag teljesen tisztességesen működtek, azonban titkos utasításra szándékosan sebezhetőségekkel tarkított kódokat kezdtek generálni.
A legnagyobb probléma, hogy ehhez nem is magukat a számítógépes modelleket kell hátsó kapuval ellátni, a kutatók a betanításukra használt adatok „megmérgezésével" vették rá a sérülékeny kódok írására a technológiát, végső soron az értelmező alrendszereikben lévő súlyozást manipulálták.
Ez borzasztóan megnehezíti a mérgezés leleplezését, főként a nyílt forrású modellek és adathalmazok bizonyulhatnak vállalhatatlan biztonsági kockázatnak.
A Claude zárt forrású, így a kutatóknak és a foglalkoztatójuknak fűződhet érdekük ahhoz, hogy bizalmatlanságot keltsenek a nyílt forrású alternatívákkal szemben. Ettől függetlenül a kutatásuk szakmailag magas színvonalú, egy olyan létező és súlyos problémára hívták fel a figyelmet, amit nem lehet a szőnyeg alá söpörni.
Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!