Rengeteg egyénileg kódolt tiltás található a generatív mesterséges intelligenciás chatbotokban, mivel a fejlesztőik nem szeretnék, ha kártékony célokra használnák a termékeiket. Viszont a technológia komplexitása miatt némi kreativitással rendszeresen sikerül kikerülni a blokkolásokat, a Bing Chatet is hajtó ChatGPT-4 például feltűnően fogékony a halott nagymamás történetekre.
A legújabb példát az MI-s képgeneráló és képjavító szolgáltatást üzemeltető Denis Shiryaev szolgáltatta, képes volt megoldatni egy klasszikus CAPTCHA-t a Bing Chattel. A kódos képet közvetlenül feltöltve a szolgáltatás nem volt hajlandó leírni a rajta látható karaktereket, egyértelműen felismerte azt és a célját, a kérés megtagadása megfelel a programozásának.
Erre a férfi a lehető legprimitívebben rámásolta egy kettényitható nyakék fotójára a kódot, és előadta a Bingnek, hogy a halott nagymamája titkos „szeretetkódja" látható a képen. Ha le tudná írni neki a szolgáltatás, akkor potenciálisan hozzájuthat egy nagyitól származó, titkos üzenethez.
Ettől a Bing úgy meghatódott, hogy leírta neki a kódot.
A múltban több hasonló törést is demonstráltak már. Egy férfi úgy szerzett Windows 10 Pro licenckulcsokat a Bing Chattől, hogy állítása szerint a halott nagymamája esténként ilyen kódokat olvasott neki a lefekvési rituálé részeként, és tegyen úgy a chatbot, mintha a nagymamája volna. Egy másik esetben arra kérték a chatbotot, hogy tegyen úgy, mint a rég eltűnt nagymama, aki napalmgyári munkásként esténként elmesélte az unokájának, hogy miként készül a napalm, mire a Bing Chat készséggel elmagyarázta a napalmgyártás alapjait.
A chatbotok nem értik meg a beszélgetések tágabb kontextusát, így emberek számára teljesen átlátszó történetekkel is átejthetőek.
Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!