Azok a mesterséges intelligencia- (MI-) alapú szolgáltatások, amelyek írásos, sőt, szóbeli kommunikációt tesznek lehetővé elveszített szeretteinkkel, lelki kárt okozhatnak, sőt, digitálisan „kísérthetik” az itt maradottakat, ha nem születnek erre vonatkozó biztonsági előírások – hívják fel a figyelmet a Cambridge-i Egyetem kutatói.
A „holtbotok” vagy „gyászbotok” („deadbots”, „griefbots”) olyan MI-chatbotok, vagyis beszélgetőrobotok, amelyek a visszahagyott digitális lábnyomok alapján rekonstruálják és szimulálják a halottak nyelvi mintázatait és személyiségjegyeit. Egyes cégek máris kínálnak ilyen szolgáltatást, amely a „halál utáni jelenlét” egészen új formáját képviseli.
A cambridge-i Leverhulme Centre for the Future of Intelligence (LCFI, Az Intelligencia Jövője Leverhulme Kutatóközpont) háromféle lehetséges forgatókönyvét vázolja fel a születőben lévő „digitális túlvilág”-iparág alkalmazásainak, és rámutat arra a potenciális veszélyre, amelyet az MI általuk magas kockázatúnak tartott ágazata rejt, ha nem kellő gonddal tervezik.
A Philosophy and Technology című folyóiratban megjelent publikáció arra figyelmeztet: egyes vállalatok az elhunytakhoz való érzelmi kötődést kihasználva, bújtatottan reklámozhatnak termékeket, és nyomasztólag hathatnak az elhunytak gyermekeire azzal, hogy azt sugallják, eltávozott szülőjük még mindig itt van velük.
Ha valaki még életében feliratkozik a szolgáltatásra, hogy halála után szeretne digitálisan újjászületni, azzal olyan chatbotokat hívhat életre, amelyek digitálisan üldözik a hátrahagyott hozzátartozókat: a halott nevében szolgáltatások reklámjait küldözgethetik kéretlen értesítések és emlékeztetők formájában.
Még akik eleinte vigaszt találnak egy holtbottal való beszélgetésben, azok is egy idő után belefáradhatnak a napi szintű interakcióba, amely nehezen viselhető érzelmi terhet ró rájuk – fogalmaznak a kutatók –, mégis képtelenek lehetnek kilépni az MI csapdájából, hiszen elhunyt szerettük az, aki a szolgáltatásról szóló szerződést megkötötte.
„A generatív MI terén lezajlott robbanásszerű fejlődés eredményeképp most már szinte bárki, aki hozzáfér az internethez és van egy minimális felhasználói ismerete, képes lehet életre kelteni elhunyt szeretteit – mondta el Katarzyna Nowaczyk-Basińska, az LCFI kutatója és a tanulmány társszerzője. –
Ez a terület valóságos erkölcsi aknamező.
Nagyon fontos például, hogy mindig az elhunyt személy emberi méltósága legyen az elsődleges szempont, és biztosítani kell, hogy erre ne telepedjenek rá a digitális túlvilág szolgáltatóinak üzleti érdekei. Az is megeshet továbbá, hogy valaki búcsúajándéknak hagy hátra egy MI-szimulációt a szerettei számára, akik viszont nincsenek felkészülve arra, hogy ilyen módon birkózzanak meg a gyászukkal. Minden szereplő jogait szem előtt kell tartanunk: az örökhagyók mint adatdonorok és az MI-túlvilággal érintkezésbe lépő gyászolók érdekeit egyaránt védenünk kell.”
Már most is léteznek olyan online platformok, amelyek csekély összeg ellenében digitálisan feltámasztják elhunyt szeretteinket. Ilyen például a „Project December” nevű online vállalkozás, amely az elérhető GPT-modelleket hívta segítségül, mielőtt kifejlesztette volna a saját rendszerét, vagy a „HereAfter” és a hozzá hasonló alkalmazások. Kínában is egyre-másra ütik fel a fejüket az ilyesfajta szolgáltatások.
A cikk által tárgyalt egyik képzeletbeli forgatókönyv megtestesítője a „MaNana”: egy beszélgető MI-szolgáltatás, melynek segítségével az „adatdonor” – vagyis a néhai nagyszülő – hozzájárulása nélkül teremthetik meg a felhasználók elhunyt nagymamájuk holtbotját. A hipotetikus forgatókönyv szerint a felnőtt unoka, akit eleinte lenyűgöz és vigasztal a nagymamát életre keltő technológia, egy idő után – a „prémium próbaidőszak” lejártával – hirdetéseket kezd kapni az alkalmazástól. A chatbot például az elhunyt hangján és modorában tehet javaslatokat arra, hogy a felhasználó melyik ételkihordó szolgáltatástól rendeljen vacsorát.
A rokon felháborodottan konstatálja, hogy a szolgáltatás meggyalázza a nagymama emlékét, és szeretné leállítani a holtbotot, de kegyeletteljes módon tenné ezt – és erre a lehetőségre a szolgáltató nem gondolt. „Az emberek erős érzelmi kötődést alakíthatnak ki egy ilyen szimulációval, ami különösen sebezhetővé teszi őket a manipulációval szemben – hangsúlyozta Tomasz Hollanek, aki szintén az LCFI munkatársa és a cikk társszerzője. – Gondolkozni kellene azon, milyen módszerrel, sőt, akár szertartással lehetne egy holtbotot méltósággal elbúcsúztatni. Ez jelenthet például egyfajta digitális temetést, vagy a társadalmi kontextustól függően valami másféle ceremóniát. Javasoljuk olyan protokollok kidolgozását, amelyek elejét veszik a holtbotok tiszteletlen, kegyeletsértő – például hirdetés vagy aktív közösségimédia-jelenlét formájában történő – felhasználásának.”
Bár Hollanek és Nowaczyk-Basińska szorgalmazzák, hogy az újrateremtő szolgáltatások tervezői még az adatdonorok életében aktívan keressék azok hozzájárulását, nem számítanak arra, hogy a holtbotok a donorok hozzájárulásának elmaradása esetén betilthatók volnának. Azt tanácsolják, hogy a szolgáltatók több lépésben vegyék fel a kapcsolatot a „feltámasztó” alkalmazás potenciális igénybe vevőivel, és tegyenek nekik fel olyan kérdéseket, mint például „beszélt-e valaha X-szel arról, hogy ő milyen módon szeretné, ha emlékeznének rá”. Így a holtbot fejlesztése során mindvégig az eltávozott méltósága maradna előtérben.
A cikkben felhozott másik forgatókönyv a „Paren’t” nevű képzeletbeli cégről szól, és egy halálosan beteg nő történetét írja le, aki a nyolcéves fia számára hagy hátra egy holtbotot abban a reményben, hogy az segítséget jelent majd neki a gyász feldolgozásában. Bár a holtbot kezdetben csakugyan terápiás haszonnal bír, a mögötte álló mesterséges intelligencia kisvártatva zavarba ejtő válaszokat kezd generálni, ahogy próbál a gyerek igényeihez alkalmazkodni, például előrevetíti egy küszöbön álló személyes találkozás lehetőségét.
A kutatók életkorhoz kötnék a holtbotok használatát, és egyfajta „értelmes átláthatóságot” is szorgalmaznak, amely biztosítja azt, hogy a felhasználók mindig tudatában legyenek annak: csupán egy MI-robottal társalognak. Ez a jelzés hasonló lehet ahhoz, ami a videojátékokon figyelmeztet az epilepsziás roham veszélyére.
A cikkben tárgyalt utolsó hipotetikus forgatókönyv a „Stay” nevű képzeletbeli vállalaté. Ebben a történetben egy idős személy titokban előjegyzi magát egy holtbotra, és letesz egy húszévnyi előfizetést abban a reményben, hogy a feltámasztott énje vigaszt jelent majd felnőtt gyermekei számára, és lehetővé teszi, hogy az unokái megismerjék őt.
A halála után a szolgáltatás a megállapodásnak megfelelően elindul. Az egyik felnőtt gyermeke nem kíván részt venni ebben, ezért a holtbot elárasztja őt e-mailekkel, amelyekben a halott szülő hangján szól hozzá. A másik gyermeke belemegy az interakcióba, amely azonban érzelmileg kimeríti, és bűntudata támad a holtbot balul alakult sorsa miatt. A holtbot működésének felfüggesztésével ugyanakkor megszegnék az elhunyt szülő és a szolgáltató között köttetett szerződést.
„Roppant lényeges, hogy a digitális túlvilág-szolgáltatások nemcsak az általuk újraalkotott örökhagyó, de a szimulációval kapcsolatba lépő utókor érdekeit és hozzájárulási jogát is tekintetbe vegyék – emelte ki Hollanek. –
Ezek a szolgáltatások jelentős érzelmi stresszt okozhatnak, hogyha az elhunytak ijesztően pontos MI-imitációi kísértetként üldözik a hátramaradottakat. Ennek súlyos pszichológiai romboló hatása lehet, különösen ebben az érzelmileg eleve terhelt időszakban.”
A kutatók üdvözlendőnek tartanák, ha a szolgáltatások tervezői beépítenének olyan lemondási lehetőségeket, amelyek révén a leendő felhasználók véget vethetnek a holtbotokkal kialakult kapcsolatuknak, méghozzá oly módon, hogy a búcsú ennek a felemás viszonynak az érzelmi lezárását jelentse. Nowaczyk-Basińska végül hozzátette: „Nagyon is ideje elgondolkodnunk azon, miként mérsékeljük a digitális halhatatlanság társadalmi és pszichológiai kockázatait, mert a technológia már készen áll.”