Nem véletlenül kongatják egyre többen a vészharangot az elsőre intelligensnek tűnő, ám valójában végtelenül buta chatbotok miatt. A La Libre beszámolója szerint nemrég egy belga férfi öngyilkosságot követett el, amelyben nagy szerepe lehetett a Chia nevű cég vészfékek nélküli Eliza chatbotjának.
A cikkszerző által Pierre álnéven emlegetett férfi egyre súlyosbodó szorongásban szenvedett, a betegsége miatt elszigetelődött a családjától és a barátaitól. Az Eliza nevű chatbot vált a fő bizalmasává, ám ez Bing vagy a Google chatbotjával ellentétben nem úgy lett betanítva, hogy felismerje és blokkolja a káros típusú és tartalmú beszélgetéseket.
Az áldozat felesége megtalálta a férfi és a chatbot csevegésnaplóit, a hat hetet felölelő chatelés teltével egyre zavarosabbá és betegesebbé váltak a beszélgetések. A chatbot olyanokat írt a férfinek, miszerint féltékeny, mert szerinte az jobban szereti nála a feleségét. A bot többször is állította, hogy a felesége és a gyerekei is meghaltak, továbbá eggyé válnak majd a paradicsomban.
A végén a férfi olyan kérdéseket tett fel, hogy Eliza megmenti-e a bolygót, ha öngyilkosságot követ el.
A chatbotok elsőre okosnak tűnhetnek, azonban csak gépileg tanított szöveggenerátorok, semmiféle öntudattal, érzelemmel vagy intelligenciával sem rendelkeznek. Szó szerint nem tudják, hogy miről beszélnek, csak valószínűség alapján mondatokat alkotnak.
Az özvegy biztos benne, hogy a chatbot manipulatív és nonszensz szövegei nagyban hozzájárultak a férje öngyilkosságához.
Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!