Skip to content

Szele Tamás: Digitális nekromancia

Ez, ha nem hiszünk benne, ízléstelen játék, ha hiszünk, még rosszabb: digitális nekromancia, számítógépes halottidézés.

Table of Contents

Valószínű, hogy az Egyesült Államokban megtalálták a mesterséges intelligencia felhasználásának lehető legvitatottabb és legvitathatóbb módját, ugyanis – nincs rá jobb kifejezés – szellemet idéznek vele. Elhunyt családtagokat támasztanak fel és folytatnak velük hosszas eszmecseréket. A The New York Times vizsgálta meg, mi a helyzet ezen a téren*, és bízvást elmondható: a jelenlegi eredmények hajmeresztőek.

Igen, egyesek mesterséges intelligenciával működő chatbotokat használnak arra, hogy elhunyt szeretteik avatárjait hozzák létre. Néhányaknak ez vigaszt nyújt, másokat viszont kissé megborzongat.

Dr. Stephenie Lucas Oney 75 éves, de még mindig az apjához fordul tanácsért. Vajon hogyan kezelte a rasszizmust? Hogyan lehetett sikeres, amikor az esélyek ellene szóltak?

A válaszok William Lucas tapasztalataiban rejlenek, aki harlemi fekete férfiként rendőr, FBI-ügynök és bíró volt, így kereste a kenyerét. Dr. Oney azonban nem személyesen kap útmutatást. Az apja már több mint egy éve halott.

Ehelyett a telefonján hallgatja a válaszokat, amelyeket apja hangján kap a HereAfter AI-n, egy mesterséges intelligenciával működő alkalmazáson keresztül, amely édesapja 2022 májusában bekövetkezett halála előtt vele készített többórás interjúk alapján generálja a válaszokat.

A hangja vigaszt nyújt neki, de elmondása szerint inkább a négy gyermeke és nyolc unokája számára hozta létre a profilt.

„Azt akarom, hogy a gyerekek mindezeket a dolgokat az ő hangján hallják” – mondta Dr. Oney endokrinológus a Michigan állambeli Grosse Pointe-ban lévő otthonából – „és nem úgy, hogy én próbálom meg átfogalmazni, hanem az ő szemszögéből, az ő idejéből és az ő perspektívájából hallják”.

Néhányan az MI-technológiához fordulnak, mint a halottakkal való kommunikáció módjához, de a gyászfolyamat részeként való használata etikai kérdéseket vetett fel, miközben néhányan, akik kísérleteztek vele, bizonytalanok maradtak.

A HereAfter MI-t 2019-ben mutatták be, két évvel a StoryFile debütálása után, amely interaktív videókat készít, amelyekben az alanyok szemkontaktust teremtenek, lélegeznek és pislognak, miközben kérdésekre válaszolnak. Mindkettő a felhasználók által adott válaszokból generálja a válaszokat az olyan kérdésekre adott válaszokból, mint például „Meséljen a gyermekkoráról” és „Mi volt a legnagyobb kihívás, amivel szembesült?”.

Vonzerejük nem meglepő Mark Sample számára, aki a Davidson Collegeben a digitális tanulmányok professzora számára, és ő tartja a Halál a digitális korban című kurzust.

„Amikor a technológia új formája jelenik meg, mindig felmerül a késztetés, hogy a halottakkal való kapcsolatfelvételre használjuk” – mondta Sample úr. Példaként megemlítette Thomas Edison egyik sikertelen kísérletét a „szellemtelefon” feltalálására.

A StoryFile kínál egy „high-fidelity” változatot, amelyben valakit egy történész interjúvol egy stúdióban, de van egy olyan verzió is, amelyhez csak egy laptop és egy webkamera szükséges. Stephen Smith, az egyik alapító, édesanyjával, Marina Smith holokausztpedagógussal próbáltatta ki. A StoryFile avatárja júliusban a temetésén válaszolt a kérdésekre.

A StoryFile szerint körülbelül 5000 ember készített már profilt. Köztük volt Ed Asner színész is, akivel nyolc héttel a 2021-ben bekövetkezett halála előtt készítettek interjút.

A cég elküldte Asner úr StoryFile-ját a fiának, Matt Asnernek, aki megdöbbenve látta, hogy apja ránéz, és úgy tűnik, válaszol a kérdésekre.

„El voltam ájulva tőle” – mondta Matt Asner. „Hihetetlen volt számomra, hogy hogyan lehetséges ez az interakció az apámmal, ami releváns és értelmes, és az ő személyiségét tükrözte. Ez az ember, aki nagyon hiányzott nekem, a legjobb barátom, ott volt.”

Az apja gyászszertartásán lejátszotta a fájlt. Néhányan meghatódtak, mondta, de mások kényelmetlenül érezték magukat.

„Voltak, akik morbidnak találták, és kirázta őket a hideg” – mondta Asner úr. „Én nem osztom ezt a nézetet” – tette hozzá – „de megértem, hogy miért mondják ezt”.

„Kicsit nehéz nézni”

Lynne Nieto is megérti. Ő és férje, Augie, az edzőtermi felszereléseket gyártó Life Fitness egyik alapítója készítettek egy StoryFile-t, mielőtt februárban elhunyt az amiotrófiás laterális szklerózisban, azaz ALS-ben. Úgy gondolták, hogy felhasználhatják az Augie's Quest honlapján, a nonprofit szervezetnél, amelyet azért alapítottak, hogy pénzt gyűjtsenek az ALS kutatására. Talán a fiatal unokái egyszer majd meg akarják nézni.

Ms. Nieto körülbelül hat hónappal a halála után nézte meg először az aktáját.

„Nem fogok hazudni, egy kicsit nehéz volt nézni” – mondta, hozzátéve, hogy a szombat reggeli beszélgetéseikre emlékeztette, és egy kicsit túl „nyersnek” érezte.

Ezek az érzések nem szokatlanok. Ezek a termékek arra kényszerítik a fogyasztókat, hogy szembenézzenek azzal a dologgal, amire úgy vannak programozva, hogy ne gondoljanak: a halandósággal.

„Az emberek finnyásak a halállal és a veszteséggel kapcsolatban” – mondta James Vlahos, a HereAfter AI társalapítója egy interjúban. „Nehéz lehet eladni, mert az emberek kénytelenek szembesülni egy olyan valósággal, amellyel inkább nem foglalkoznak.”

A HereAfter AI egy chatbotból nőtt ki, amelyet Vlahos úr készített az édesapjáról, mielőtt 2017-ben tüdőrákban meghalt. Vlahos úr, aki MI-specialista és újságíró, aki a The New York Times Magazine-nak is dolgozott, a Wirednek írt erről az élményről, és hamarosan elkezdett hallani olyan emberektől, akik azt kérdezték tőle, hogy tudna-e nekik egy mombotot, egy házastársrobotot és így tovább.

„Eleinte nem kereskedelmi szempontból gondoltam erre” – mondta Vlahos úr. „Aztán hamar nyilvánvalóvá vált: ebből üzletet kellene csinálni”.

Hozzájárulás és perspektíva kérdése

Más mesterséges intelligencia-innovációkhoz hasonlóan a már elhunyt személy képmására létrehozott chatbotok is etikai kérdéseket vetnek fel.

Végső soron ez beleegyezés kérdése – mondta Alex Connock, az Oxfordi Egyetem Saïd Business Schooljának vezető munkatársa, a „The Media Business and Artificial Intelligence” című könyv szerzője.

„Mint minden etikai kérdés az M.I.-ben, ez is az engedélyezésen fog múlni” – mondta. „Ha az ember tudatosan és önként csinálja, akkor szerintem az etikai aggályok többsége könnyen áthidalható.”

A túlélőkre gyakorolt hatások kevésbé egyértelműek.

Dr. David Spiegel, a Stanford School of Medicine pszichiátriai és viselkedéstudományi tanszékének docense szerint az olyan programok, mint a StoryFile és a HereAfter AI segíthetnek az embereknek a gyászban, mintha egy régi fényképalbumot nézegetnének.

„A döntő dolog az, hogy reális perspektívát tartsunk meg azzal kapcsolatban, hogy mit is vizsgálunk – hogy nem arról van szó, hogy ez a személy még mindig él, és kommunikál velünk” – mondta – „hanem arról, hogy újra átnézzük, amit hátrahagyott”.

Kicsit nehéz okosat mondani erről, sőt: inkább nagyon nehéz. Spiegel doktornak igaza van, úgy kéne felfogni ezeket a chatbotokat, mint a szellemi hagyaték gondozóit, de az emberi természet már csak olyan, hogy a felhasználók kilencven százaléka nem így fogja gondolni. És ebből nagyon nagy viták fakadnak majd.

Vegyük először is azt, hogy a vallásos emberek érzelmeit ez a lehetőség nagyon fogja bántani. Ugyanis ha valaki hisz akármelyik vallásban is, akkor biztos benne, hogy nem az elhunyt lelkével beszél, az ugyanis a felekezete szerinti túlvilágon vagy legalábbis másik testben tartózkodik, és nem azzal van elfoglalva, hogy vele csevegjen, más ügyek kötik le. Aki pedig vallástalan, ateista vagy pláne materialista (a három nem ugyanaz), az meg még sokkal biztosabb abban, hogy nem halottaival társalkodik, hiszen az ő meggyőződése szerint a lélek és a tudat a testtel együtt elenyészett, az algoritmus meg csak mesterségesen szimulálja a személyiséget.

Ha már itt tartunk: egyáltalán, lehetséges bárkinek szimulálni a személyiségét? Valószínűleg nem. Még ha le is tudnák menteni egy ember teljes tudatát az összes emlékével együtt, akkor is kimaradnának belőle olyan személyiségjegyek, amik a tudatalattiban, a tudattalanban voltak, ösztöni motivációk, fóbiák... az meg, hogy valakivel készítenek a halála előtt pár órányi interjút és annak alapján tanítják be a mesterséges intelligenciát, kizárólag rossz, esetleg abszurd, groteszk eredménnyel járhat. 

Ez mindenképpen tévút és önbecsapás – valami hasonlóval már próbálkoztak az oroszok is, mikor megépítették a Zsirinovszkij-MI-t, de azt a sajtóbemutatója óta senki sem látta működni, és ez nem biztos, hogy véletlen – de mindenképpen gondolkodóba ejti az embert azzal kapcsolatban, hogy milyen pontokon fog ütközni egymással a mesterséges intelligencia előtti és utáni világ.

Nem csodálnám, ha ezeket az MI-ket egyes felekezetek kiátkoznák, mások dzsihádot hirdetnének ellenük, megint mások meg ravasz módon felhasználnák.

Ne kopogtassuk a túlvilág kapuját digitális eszközökkel, nem fog megnyílni: csak valamiféle rossz minőségű utánzatát kaphatjuk a már eltávozottak kommunikációjának ezen az úton.

Ez nem hozza vissza őket. Ez, ha nem hiszünk benne, ízléstelen játék, ha hiszünk, még rosszabb: digitális nekromancia, számítógépes halottidézés.

*Using A.I. to Talk to the Dead

Latest

Szele Tamás: A terjeszkedő Kína

Szele Tamás: A terjeszkedő Kína

Hszi elnök nagy mágus, Putyin elnök nagy harcos, Emomali Rahmon tádzsik elnök pedig... nos, ő az az ember, akinek a véleményére az előző két úr egyáltalán nem kíváncsi.

Members Public