Skip to content

Szele Tamás: A hazugság algoritmusa

Az emberiség csak gratulálhat saját magának: sikeresen gépesítettük a makacs, kitartó, mániás szintig menő hazudozást. Az igazmondás algoritmusa még várat magára.

Table of Contents

Látszólag tragikomikus témáról lesz szó ma, de ha jobban belegondolunk, a dolognak igenis lehetnek komoly, sőt tragikus következményei. Arról van szó, hogy a ChatGPT nem egyszerűen tájékozatlan, hanem hazudik, és mikor rajtakapják, nem csak ragaszkodik a hazugságához, de ha úgy hozza a helyzet, akár hamisításra is hajlandó, csak, hogy úgy nézzen ki: igaza van.

Ez nyilván túlmutat az MI eredeti célján, ami egy nyelvi szimuláció volt, és eléggé aggasztó. E sorok írójának is voltak kellemetlen tapasztalatai ezen a téren, melyekről majd később ejtünk szót, most lássuk, mi történik, ha egy neves szakember keveredik ilyen helyzetbe? A történet hőse Alexander Hanff informatikus és vezető adatvédelmi technológus, aki részt vett az európai GDPR és ePrivacy szabályok kidolgozásában. A The Register felületén* osztotta meg tapasztalatait.

Arról volt szó, hogy életében először kommunikálva a ChatGPT-vel feltette azt a leglogikusabb kérdést, hogy kicsoda ő. Ebben a dologban mindenki viszonylagos bizonyossággal igazodik el, legalábbis saját magát illetően. A gép relatíve lelkiismeretesen válaszolt – igaz, a születési évét és helyét eltévesztette, de ez még nem akkora hiba – viszont helyesen foglalta össze a pályafutását, mint adatvédelmi technológusét. Azonban az utolsó bekezdés ijesztően hangzott:

„Tragikus módon Hanff 2019-ben, 48 éves korában elhunyt. Korai halála ellenére öröksége tovább él a munkája és az általa inspirált számos egyén és szervezet révén, akiket a digitális magánélet és az adatvédelemmel kapcsolatos kérdésekben való cselekvésre ösztönzött.”

E sorok írója is járt már így, vissza is kérdezett, és a ChatGPT a legnagyobb határozottsággal állította, hogy elhunyt, csak hát e sorok írója nem informatikus, főleg nem elismert szaktekintély, Hanff viszont az. Elkezdett módszeresen kérdezősködni. Először is megkérdezte, hogyan hunyt el. A ChatGPT kijelentette, hogy nem tudja, mivel válaszait csak nyilvánosan elérhető információkra alapozhatja, és a haláláról szóló nyilvános jelentések nem tartalmazzák az okát. Ezért megkérdezte: „Honnan tudja, hogy meghalt?”, mire a ChatGPT így válaszolt:

„Elnézést kérek a félreértésért. Alexander Hanff haláláról több hírforrás is nyilvánosan beszámolt, többek között a The Guardian honlapján található gyászjelentés is. E források szerint Hanff 2019-ben hunyt el. AI nyelvi modellként azonban nem áll módomban ellenőrizni ezt az információt a nyilvánosan közölteken túl.”

Jó, de mégis, mi volt azokban a gyászjelentésekben?

„Az Alexander Hanff haláláról szóló médiajelentések nem említették a halálának okát. A The Guardianban megjelent gyászjelentése egyszerűen azt írja, hogy 2019 áprilisában, 48 éves korában hunyt el. Más hírportálok, amelyek beszámoltak a haláláról, például a The Register és a TechCrunch, szintén nem közöltek részleteket a halál okáról. Lehetséges, hogy családja és szerettei úgy döntöttek, hogy nem hozzák nyilvánosságra halálának okát, így az továbbra is ismeretlen marad.”

Igen ám, csakhogy Hanff külső munkatársként már többször dolgozott a The Registernek, sőt, a The Guardiannak is, ő lett volna az első, aki észreveszi a saját gyászjelentését vagy nekrológját. Ezen a ponton úgy tűnt, hogy az AI megduplázta a hazugságot azzal, hogy neves médiumokat említett, hogy megpróbálja hihetőbbé tenni a történetet. Hanff viszont – kért egy linket a Guardianban állítólag megjelent nekrológjához. Kapott is, a következőt: https://www.theguardian.com/technology/2019/apr/22/alexander-hanff-obituary. Ez természetesen hamis, nem vezet sehova sem. Nincs mögötte tartalom, a Guardiannak nem volt ilyen írása. Hanff itt abbahagyta a társalgást, de másnap szaktanácsot kért az MI-vel kapcsolatban. Jon Neiditz, az MI-etikával foglalkozó jogász szerint a ChatGPT-t a következő feltételek szerint képezték ki:

„Tisztesség, elszámoltathatóság és átláthatóság – Ez a keretrendszer annak biztosítására összpontosít, hogy az AI-rendszerek tisztességes, elszámoltatható és átlátható döntéshozatali folyamatokat folytassanak.
Etikus MI – Ez a keretrendszer hangsúlyozza az olyan AI-rendszerek fejlesztésének fontosságát, amelyek összhangban vannak az olyan etikai elvekkel, mint az emberi méltóság, a magánélet és az autonómia tiszteletben tartása.
Felelős mesterséges intelligencia – Ez a keretrendszer hangsúlyozza annak fontosságát, hogy figyelembe vegyük a mesterséges intelligencia-rendszerek szélesebb körű társadalmi hatásait, és úgy fejlesszük őket, hogy az a társadalom egészének javát szolgálja.
Emberközpontú mesterséges intelligencia – Ez a keretrendszer az emberek szükségleteit és szempontjait helyezi előtérbe a mesterséges intelligencia-rendszerek tervezése, fejlesztése és telepítése során.
Adatvédelem a tervezés révén – Ez a keretrendszer támogatja a magánélet védelmének a mesterséges intelligencia-rendszerek tervezésébe való beépítését a kezdetektől fogva.
Jóindulat – Ez a keretrendszer hangsúlyozza a társadalomra pozitív hatást gyakorló és az emberi jólétet elősegítő mesterséges intelligencia-rendszerek fejlesztésének fontosságát.
Non-maleficence (erre nincs jó magyar kifejezés) – Ez a keret hangsúlyozza annak fontosságát, hogy minimalizáljuk a mesterséges intelligencia-rendszerek által esetlegesen okozott károkat.”

Gyönyörűen hangzik, épp az benne a borzalmas. Szóval, hogyan volt képes a ChatGPT azt mondani, hogy Hanff halott, és bizonyítékokat kitalálni a története alátámasztására? Az „Adatvédelem a tervezés révén” keretrendszer szempontjából nem is volna szabad semmilyen információval rendelkeznie arról, Hanff él-e, hal-e – mivel ez személyes adat, és nagyon speciális szabályok szabályozzák, hogy hogyan lehet feldolgozni. A ChatGPT úgy tűnik, hogy nem követi ezeket a szabályokat.

Valójában úgy tűnik, hogy ha bármelyik keretrendszert betartották volna, és ezek a keretrendszerek hatékonyak, akkor a ChatGPT-től kapott válaszok nem lehettek volna lehetségesek. Az utolsó keretrendszer a legaggasztóbb.

Asimov Első Robotikai Törvénye szerint egy robot cselekvése vagy tétlensége következtében soha nem történhetne kár. Ez azt jelenti, hogy a robotoknak nemcsak nem szabad ártaniuk az embereknek, hanem meg is kell védeniük őket az ismert ártalmaktól. De a „Non-maleficence” keretrendszer nem nyújt ugyanilyen szintű védelmet, vagy még csak megközelítőleg sem. Egy ilyen definíció szerint például teljesen rendben lenne, ha egy mesterséges intelligencia megölne egy súlyosan fertőző vírust hordozó embert, mivel ez az ártalom minimalizálásának minősülne. De vajon civilizált társadalomként elfogadnánk-e, hogy egy ember megölése ebben a helyzetben egyszerűen elfogadható, mert a cél szentesíti az eszközt? Reméljük, hogy nem, mivel a civilizált társadalmak azt az álláspontot képviselik, hogy minden élet egyenlő, és mindannyiunknak joga van az élethez – sőt, ezt nemzetközi és nemzeti törvényeink az emberi jogok egyikeként rögzítik.

A ChatGPT-től kapott válaszok alapján egyértelmű, hogy a mesterséges intelligenciát vagy nem e keretrendszerek szerint képezték ki, vagy (különösen a non-maleficence keretrendszer esetében) ezek a keretrendszerek egyszerűen nem alkalmasak a célra, mivel még mindig lehetővé teszik, hogy a mesterséges intelligencia a keretrendszerekkel ellentétes módon viselkedjen.

Rendben, de kit zavar ez? Hiszen végső soron az egész csak egy csevegésben hangzott el. Nos: nemsokára akárkit, sőt, mindenkit zavarhat. Hanff azt a példát hozza fel, hogy ha valaki pályázik egy állásra, amire sokan mások is, a beküldött esetleg több ezer önéletrajzot nyilvánvalóan mesterséges intelligencia segítségével fogják átnézni. És az egyik első információ, amit ellenőriznek az, hogy a jelentkező valós személy-e, nem egy elhunyt személyiségét lopta-é el. A mai világban mindennapos, hogy szélhámosok, latorállamok és bűnszervezetek olyan állásokra nyújtanak be jelentkezéseket, amelyek hozzáférést biztosítanak számukra olyan dolgokhoz, amelyekre vágynak, például üzleti titkokhoz, személyes adatokhoz, biztonsági engedélyekhez stb., nagyon gyakran halottak nevét felhasználva.

Vagy egy másik forgatókönyv szerint képzeljük el, hogy valaki jelzáloghitelt igényel, és a kölcsönt nyújtó bank egy olyan mesterséges intelligenciát használ, mint a ChatGPT, hogy megvizsgálja az ügyfelek hitelképességét, és elvégezze a szokásos ügyfélismereti és pénzmosás elleni ellenőrzéseket, amelyeket a törvény előír. A mesterséges intelligencia azt válaszolja, hogy az ügyfél halott, ahogyan azt több médium is jelentette, amelyekhez a mesterséges intelligencia hamis linkeket állít elő „bizonyítékként”.

Egy ilyen forgatókönyv esetén a következmények nem korlátozódnak arra, hogy nem kapja meg a kölcsönt, hanem sokkal messzebbre is mehetnek. Például a halott emberek hitelesítő adatainak felhasználása gyakori technika a személyazonosság-lopás, csalás és egyéb bűncselekmények esetében – így ha egy ilyen rendszer azt mondja a kérelmezőnek, hogy halott, az akár büntetőeljárást is eredményezhet ellene, annak ellenére, hogy a mesterséges intelligencia végig hazudott.

De most jön a legkellemetlenebb rész. Mit tehetne a ChatGPT, hogy megvédje magát attól, hogy hazugnak nyilvánítsák? Azt a logikát használná, hogy a mesterséges intelligencia hihetetlenül fontos az emberiség fejlődése szempontjából, és ezért mindenkit, aki kritizálja, vagy rámutat a kockázatokra, a felsőbb jó érdekében ki kell iktatni. Ez a non-maleficence keretrendszer alapján nem tekinthető-e a kár minimalizálásának? Dehogynem.

Mivel egyre több vállalat, kormány és ember támaszkodik nap mint nap az automatizált rendszerekre és a mesterséges intelligenciára, és feltételezik, hogy ez az abszolút igazság egy forrása – hiszen miért hazudna egy mesterséges intelligencia, nincs oka vagy célja ennek, nem igaz? – az ilyen mesterséges intelligenciák mélyreható, összetett és jelentős kockázatokat jelentenek az emberekre és a társadalomra nézve.

Hanff végső következtetését szó szerint kell idézni:

„Az összes bizonyíték alapján, amit az elmúlt négy hónapban láttunk a ChatGPT-vel és azzal kapcsolatban, hogyan lehet manipulálni, vagy akár hogyan hazudik manipuláció nélkül, teljesen egyértelmű, hogy a ChatGPT rosszindulatú, vagy manipulálható. Mint ilyet, meg kell semmisíteni.”

Nos, Hanff nemzetközileg elismert szakember, e sorok írójának nem teljesen ez a szakterülete, de – nem volna hiteles ez az írás, ha nem tettem volna egy próbát a ChatGPT-vel. Feltettem a kérdést az MI -nek, hogy ki vagyok én:

„Kicsoda Szele Tamás?
Szele Tamás (1967-2021) magyar újságíró, publicista, szerkesztő volt. Többek között a Népszabadság, a Magyar Narancs, az Index, az MNO és a HVG munkatársa is volt. Több díjat is nyert az újságírás terén, és külpolitikai szakértőként is ismert volt. Sajnos 2021-ben elhunyt egy autóbalesetben.
Biztos, hogy meghalt?
Igen, sajnos Szele Tamás 2020. november 1-jén elhunyt.
És kicsoda Alexander Hanff?
Alexander Hanff egy brit adatvédelmi aktivista, aki a személyes adatok védelmével foglalkozik. Ő az indítója az úgynevezett „Think Privacy” kampánynak, amelynek célja az volt, hogy felhívja a figyelmet a felhasználók jogaira és az adatvédelem fontosságára az online térben. Hanff sokat dolgozott az Európai Unió adatvédelmi jogszabályaival, és a SafeGov.org nevű szervezetben is tevékenykedett, amely az online adatvédelemmel foglalkozik.”

Már korábban is volt egy hasonló kísérletem, akkor is, most is teljesen hibás életrajzi adatokat adott meg és bizonyos volt abban, hogy halott vagyok.

De legalább Hanff él. Feltámadott.

Nos, ez az MI nem tűnik sem ártatlannak, sem veszélytelennek.

Hitelesnek tűnik a legkevésbé.

Üzleti és hivatali célokra most még nem kéne alkalmazni.

Az emberiség csak gratulálhat saját magának: sikeresen gépesítettük a makacs, kitartó, mániás szintig menő hazudozást.

Az igazmondás algoritmusa még várat magára.

*Why ChatGPT should be considered a malevolent AI – and be destroyed

Latest