A mesterséges intelligencia alapjaiban alakította át a befolyásolási műveletek tájképét, gyorsabbá, olcsóbbá és áthatóbbá téve azokat. A fenyegetés nem csupán specifikus hamis narratívákról szól, hanem a bizalom rendszerszintű eróziójáról, az információs környezet szennyezéséről és a demokratikus integritás kihívásáról. A 2024-ben megfigyelt választási beavatkozási taktikák csak a kezdetet jelentik, és ahogy az AI fejlődik, a dezinformációt egyre nehezebb lesz nyomon követni és ellensúlyozni.
Az AI megjelenése a befolyásolási műveletekben
A befolyásolási műveletek, amelyek történelmileg a közvélemény és a viselkedés manipulálására irányultak, a mesterséges intelligencia (AI) integrálásával gyökeres átalakuláson mentek keresztül. A generatív AI (GenAI), mint szoftvertípus, statisztikai modelleket használ a meglévő adatok mintázatainak általánosítására, hogy átszervezze a meglévő tartalmakat, vagy újakat hozzon létre. Ez a tartalom a szövegtől a szintetikus médiáig terjedhet, beleértve a videó-, kép- és hangfájlokat is. Az AI ezen képességei alapvetően megváltoztatják a befolyásolási műveletek végrehajtását, mivel lehetővé teszik a rendkívül meggyőző és realisztikus tartalmak gyors, nagyszabású előállítását, automatizálva azokat a feladatokat, amelyek korábban jelentős emberi erőforrást igényeltek. Ezáltal csökkentik a költségeket és növelik az elérést.
A kortárs információs környezetben az internet és a közösségi média már eddig is felgyorsította az információáramlást, ami egy összetett és fragmentált nyilvános vitát eredményezett, ahol az információs káosz uralkodik, a tudományos igazságok és az összeesküvés-elméletek egyaránt jelen vannak. Az AI tovább súlyosbítja ezt a helyzetet, mivel rendkívül nehézzé teszi az autentikus és a manipulált információ megkülönböztetését. Az olyan modellek, mint az OpenAI GPT-je, az AI-t széles körben népszerűvé tették, felhívva a figyelmet kettős felhasználhatóságára és politikai hadviselésben való potenciális fegyverként való alkalmazására.
Az AI elsődleges hatása a befolyásolási műveletekre nem feltétlenül az, hogy teljesen új taktikákat hoz létre, hanem az, hogy drámaian fokozza a meglévőek sebességét, volumenét és kifinomultságát, ezáltal sokkal nehezebbé téve azok észlelését és ellensúlyozását. A kutatási anyagok következetesen hangsúlyozzák az óriási méretet, sebességet és elérést, a nagyobb sebességet és kifinomultságot sokkal alacsonyabb költséggel, valamint a gyorsabb, jobb minőségű tartalom előállítását több ember által. Ez az ismétlődés különböző forrásokból (katonai kutatás, kormányzati jelentések, akadémiai tanulmányok) konszenzust jelez az AI erő-multiplikáló hatásáról. A újdonság nem a "mit" (dezinformáció), hanem a "hogyan" (AI-vezérelt hatékonyság). Például a DCWeekly.org orosz állami propagandista oldal az AI bevezetése után 2,4-szeresére növelte napi cikkgyártását. Ez azt jelenti, hogy az AI nem csupán gyorsabban végzi el ugyanazt a feladatot, hanem alapjaiban változtatja meg a műveletek méretét és elérését, ipari léptékűvé téve azokat, ami jelentősen megnehezíti az észlelést és az ellensúlyozást.
Ezen túlmenően, az AI-vezérelt tartalom egy mélyebb fenyegetést is rejt magában, amelyet episztémikus kockázatnak neveznek. Ez a kockázat a torzított vagy félrevezető tudás előállítását, valamint az információforrásokba vetett megértés és bizalom torzulását jelenti. A kutatás arra is figyelmeztet, hogy a nyilvános tudás önreferenciálissá válhat, az AI-modellek rekurzív melléktermékévé, nem pedig az emberi tudás fejlődésének tükröződésévé. Ez a jelenség azt sugallja, hogy ha az AI-modelleket torzított adatokon képzik, majd olyan tartalmat generálnak, amely tovább erősíti ezeket a torzításokat, és ez a tartalom válik a tudás elsődleges forrásává, akkor a társadalom elveszítheti az igazság és a valóság megkülönböztetésének képességét. Ez egy kollektív episztémikus válsághoz vezethet, ahol a valóság fogalma elmosódik.
Az AI-vezérelt dezinformációs kampányok anatómiája
Taktikák, technológiák és működési elvek
A mesterséges intelligencia által vezérelt üzleti modellek jellemzői, mint az adatgyűjtés (datafication), az algoritmusfejlesztés és a fokozott automatizálás, rosszindulatú szereplők által is kihasználhatók. Az ügyfélinterakciókból, operatív folyamatokból és piaci trendekből származó adatokat újra fel lehet használni a sebezhetőségek azonosítására és a célközönség meghatározására. Az algoritmusokat ezután mintázatok felismerésére, előrejelzések készítésére és a tartalomgenerálás, valamint terjesztés automatizálására használják. Az automatizálás egyszerűsíti az ismétlődő feladatokat, lehetővé téve a tartalom nagyszabású előállítását.
A generatív AI eszközök széles skáláját alkalmazzák rosszindulatú befolyásolási műveletekben:
Szöveg-alapú generatív AI (Nagy nyelvi modellek - LLM-ek): Ezeket az eszközöket emberhez hasonló szöveg generálására használják, ami lehetővé teszi a külföldi állami szereplők számára, hogy grammatikailag korrekt tartalmat állítsanak elő alacsonyabb költséggel a titkos befolyásolási műveletekhez. Kiberbűnözők is kihasználják az LLM-eket kifinomult social engineering és adathalász kampányokhoz. Például az OpenAI ChatGPT-jét a Sneer Review nevű művelet során közösségi média posztok és kommentek generálására használták, valamint X-fiókokhoz posztok és életrajzok írására hírszerzési célú műveletekben. Oroszország DCWeekly.org oldala generatív AI-t (különösen GPT-3-at) alkalmazott más médiaforrásokból származó tartalom átírására, specifikus szerkesztői irányvonalat és kívánt hangnemet adva neki, például az USA ukrajnai álláspontját kritizálva vagy a republikánusokat támogatva. Az AI még a cikkek kiválasztásában is szerepet játszott, pontozva a forrástartalmakat.
Audió generálás és hangklónozás: Az AI-generált hangot alkalmazzák alkalmazottak megszemélyesítésére érzékeny információk megszerzése céljából. A hangklónozás egyének hangjának replikálására szolgál csalásokhoz vagy dezinformációs kampányokhoz. Magas szintű példák közé tartozik egy hamis Joe Biden hangüzenet, amely a New Hampshire-i előválasztásokon való szavazástól próbált visszatartani, valamint egy megváltoztatott hangú videó egy pakisztáni választási jelöltről, aki a szavazás bojkottjára szólított fel. Az ilyen AI-generált hanganyagok ellenőrzésének nehézsége jelentős aggodalomra ad okot.
Képgenerálás és -módosítás: A szöveg-kép generátorokat hamis és félrevezető képek előállítására használják a közvélemény befolyásolására, vagy szintetikus profilok létrehozására befolyásolási műveletekhez. Példák közé tartoznak a spanyol politikusokat birkózóként ábrázoló képek (a United Unknown Stable Diffusiont használva), egy hamis kép Taylor Swiftről, aki Donald Trumpot támogatja, valamint egy manipulált kép, amely női birkózókat igyekezett hitelteleníteni. Ezek a képek károsíthatják a hírnevet és csalásokat terjeszthetnek.
Videó generálás és deepfake videók: Ezek az eszközök szöveges leírásokból generálnak videót, vagy valósághű videókat hoznak létre olyan eseményekről, amelyek soha nem történtek meg. Korai példa egy (nem túl meggyőző) deepfake Volodimir Zelenszkij ukrán elnökről, aki megadásra szólított fel. Külföldi állami szereplők szöveg-videó szoftvert használnak hamis híradósokról szóló videók előállítására, amelyek kitalált történetekről számolnak be.
Az AI nem csupán a tartalomgenerálást teszi lehetővé, hanem a kifinomult műveleti menedzsmentet, stratégiai tartalomkurálást és még belső szervezeti funkciókat is a befolyásolási kampányokon belül. Az OpenAI felfedezései szerint rosszindulatú szereplők még az AI-t is felhasználták belső teljesítményértékelések generálására, amelyek részletezték a műveletek létrehozásához és működtetéséhez szükséges lépéseket. Ez egy szervezett és strukturált erőfeszítésre utal, amely szinte üzleti jellegű megközelítést alkalmaz a befolyásolási műveletekhez. Az AI-t kód hibakeresésére és közösségi médiafigyelő eszközök értékesítési ajánlatainak megírására is használták. Ez a mélyebb integráció és az AI stratégiai alkalmazása hatékonyabbá és nehezebben felszámolhatóvá teszi ezeket a műveleteket szervezeti szempontból.
Az AI-vezérelt tartalom egy autenticitási paradoxont teremt. A DCWeekly.org, annak ellenére, hogy kitalált oldal volt, valószínűleg valódinak tűnt az átlagos felhasználók számára, és meggyőző erejét is fenntartotta. A United Unknown alkotásai nagyon realisztikusak, de van bennük valami, ami nem egészen stimmel. Az AI-generált tartalom rendkívül meggyőző, mégis megtévesztő lehet. Ez a paradoxon abból adódik, hogy az AI-t úgy tervezték, hogy olyan jól utánozza az emberi teljesítményt, hogy az megkülönböztethetetlenné válik, ugyanakkor rosszindulatú felhasználása aláássa a minden digitális tartalomba vetett bizalmat. Minél meggyőzőbbé válik az AI, annál nehezebb az emberek számára az igazság felismerése, ami a média általános gyanújához vezet, még az autentikus tartalmak esetében is. Ez aláássa a digitális autenticitás fogalmát.
Az AI egy narratív mosási mechanizmusként is működik. A DCWeekly.org példája azt mutatja, hogy az AI-t arra használták, hogy átírják a tartalmat, specifikus szerkesztői irányvonalat adva neki, és újra előállítsák a meglévő cikkeket ezekből a különböző forrásokból, miközben beillesztették a kívánt 'ellenszenv és cinizmus' felhangjait. Ez túlmutat az egyszerű tartalomgeneráláson; a legitim vagy semleges információk finom (vagy nyílt) elferdítéséről van szó egy adott agenda szolgálatában. Ez a narratív mosás megnehezíti az elfogultság eredetének nyomon követését, és kihasználja az eredeti források hitelességét, miközben dezinformációt juttat be. Ez egy kifinomult módszer a percepció manipulálására a kontextus megváltoztatásával, nem pedig teljesen kitalált tartalom létrehozásával.
Főbb szereplők, motivációk és globális trendek
Az AI-vezérelt befolyásolási műveletek mögött álló szereplők köre sokrétű, állami és nem állami szereplőket egyaránt magában foglal.
Állami szereplők:
Kína: Az OpenAI több titkos befolyásolási műveletet azonosított és szakított meg, amelyek valószínűleg Kínából származtak és valószínűleg a kínai kormány irányította. Ezek a műveletek a közvélemény befolyásolására és online megfigyelésre irányultak. Például a Sneer Review ChatGPT-t használt közösségi média posztokhoz és kommentekhez, míg egy másik művelet újságíróknak és geopolitikai elemzőknek adva ki magát hírszerzést végzett. A kampányok számos országot és témát céloztak, beleértve egy tajvani stratégiai játékot is, és olyan platformokon működtek, mint a TikTok, X, Reddit és Facebook, angol, kínai és urdu nyelven generálva posztokat.
Oroszország: Egy jól finanszírozott, moszkvai székhelyű hálózat orosz propagandával fertőzött meg nyugati AI-eszközöket. Az orosz állami kötődésű DCWeekly.org oldal jelentősen, 2,4-szeresére növelte dezinformációs kibocsátását az AI bevezetésével, miközben fenntartotta a tartalom meggyőző erejét. Pro-kremlpárti Telegram csatornák realisztikus deepfake-eket terjesztenek ukrán tisztviselőkről. A NewsGuard 167 orosz kötődésű hírweboldalt azonosított, amelyek helyi hírportáloknak adták ki magukat, és elsősorban AI-t használtak.
Irán: Egy iráni befolyásolási művelethez köthető fiókok chatbotokat használtak választási dezinformáció generálására, és hamis weboldal domaineket hoztak létre, amelyek amerikai hírportáloknak adták ki magukat.
India: Egy közel 1500 hamis fiókból álló hálózat a Facebookon és az X-en, amely három évig észrevétlenül működött, pro-indiai tartalmakat népszerűsített és Pakisztánt igyekezett aláásni, valószínűleg AI-t használva.
Litvánia: Egy litván cég AI-t használt hamis cikkek előállítására az amerikai politikáról, amelyeket AI-generált botok erősítettek fel.
A befolyásolási műveletek mögött számos motiváció áll:
Választási eredmények befolyásolása, politikai megosztottság szítása, média integritásának aláásása.
Pénzügyi haszonszerzés a közösségi média hirdetési bevételeiből, magas elérésű posztokon keresztül.
Hírszerzés és megfigyelés.
Specifikus ideológiai agendák terjesztése (pl. klímaváltozás tagadók).
Társadalmi kapcsolatok fenntartása, szórakozás keresése vagy vitákban való részvétel.
A hagyományos megkülönböztetés a külföldi állami fenyegetések és a hazai dezinformáció között egyre inkább elmosódik. Míg az OpenAI egyértelműen a kínai kormányhoz köti a műveleteket, és a DCWeekly.org-ot orosz állami kötődésűnek azonosítják, addig a kutatások az USA-ban található felhasználók által létrehozott paródia klipekről is beszámolnak, amelyek diszkriminatív megjegyzéseket tartalmaznak politikai jelöltekről, új hazai kockázati forrásokat jelezve. A közösségi média platformokat, mint az X, azzal is vádolták, hogy anyagilag ösztönzik a felhasználókat provokatív, AI-generált szatíra posztolására. Ez a komplex ökoszisztéma azt mutatja, hogy az államilag szponzorált műveletek együtt léteznek, sőt, tanulhatnak vagy felerősödhetnek hazai szereplők vagy pénzügyileg motivált tartalomgyárak által. Ez megnehezíti az attribúciót és a hatékony válaszadást.
Az AI-vezérelt dezinformáció terjedésének egyik alapvető mozgatórugója a gazdasági ösztönző. A kutatás szerint azok, akik pénzügyi hasznot akarnak húzni a közösségi média hirdetési bevételeiből a magas elérésű posztokon keresztül, terjeszthetnek dezinformációt. A NewsGuard megállapította, hogy 141 márka juttat programozott hirdetési dollárokat alacsony minőségű, AI-generált hír- és információs oldalaknak, ami gazdasági ösztönzőt teremt a nagyszabású létrehozásukhoz. Ez a jelenség rendszerszintű sebezhetőséget tár fel: a digitális hirdetési ökoszisztéma, amelyet az elkötelezettség monetizálására terveztek, akaratlanul is táplálja az AI-generált dezinformáció terjedését. Az online platformok üzleti modelljei, az AI azon képességével párosulva, hogy nagy mennyiségű, alacsony költségű tartalmat generáljon, olyan torz ösztönző struktúrát hoznak létre, ahol a dezinformáció jövedelmező lehet, ami a geopolitikai motivációkon túl is önfenntartó problémává teszi azt.
Platformok és terjesztési csatornák
Az AI-generált dezinformáció terjesztésének elsődleges csatornái a digitális ökoszisztéma kulcsfontosságú elemei.
Közösségi média platformok: A TikTok, az X (korábbi Twitter), a Reddit, a Facebook és az Instagram széles körben használt az AI-generált tartalmak terjesztésére. Ezen platformok ajánlási rendszerei, amelyek az elkötelezettség és a hirdetési bevételek maximalizálására irányulnak, sebezhetőek a közösségi botok manipulációjával szemben, amelyek dezinformációt juttathatnak a felhasználók hírfolyamába. A TikTok érdeklődési grafikonjai, amelyek a felhasználók online viselkedése alapján személyre szabják a tartalmat, olyan tartalmaknak tehetik ki a felhasználókat, amelyeket egyébként nem látnának.
Hamis hírportálok és tartalomgyárak: A NewsGuard 49 olyan hír- és információs oldalt azonosított, amelyek szinte teljes egészében mesterséges intelligencia szoftverrel íródtak, ami a tartalomgyárak új generációját jelzi. Ide tartozik a DCWeekly.org (orosz kötődésű, kitalált oldal, amely AI-t használt a tartalom átírására és a hiteles megjelenésre), valamint 167 orosz kötődésű hírportál, amelyek helyi hírportáloknak adták ki magukat. Az iráni hálózatok is hamis weboldal domaineket hoztak létre.
Üzenetküldő alkalmazások: A Telegram csatornákat pro-kremlpárti szereplők használják realisztikus deepfake-ek terjesztésére.
Programozott hirdetések: A hirdetési technológiai ipar akaratlanul is támogatja az AI-generált dezinformációs oldalakat azáltal, hogy hirdetéseket szállít anélkül, hogy figyelembe venné a weboldal természetét vagy minőségét, ami gazdasági ösztönzőt teremt a nagyszabású létrehozásukhoz.
AI chatbotok és eszközök: Maguk az AI-modellek és termékek is a globális dezinformációs hadviselés csataterévé válnak. Az olyan chatbotok, mint a ChatGPT, dezinformációt terjesztenek, és az orosz állami média állítólagos ChatGPT válaszokat idézett hamis állítások alátámasztására.
A platformok nem csupán passzív közvetítők, hanem aktív erősítői az AI-generált dezinformációnak, alapvető algoritmikus struktúráik és üzleti modelljeik miatt. Az OpenAI által feltárt kínai műveletek a TikTok, X, Reddit és Facebook platformokat egyaránt felhasználták. A NewsGuard és más források megerősítik, hogy ezek a platformok az elsődleges terjesztési csatornák. A közösségi média vállalatok ajánlási rendszerei, amelyek az elkötelezettség maximalizálására épülnek, sebezhetőek a botok manipulációjával szemben, ami növeli a dezinformációval való találkozás esélyét. A platformok kialakítása, az elkötelezettség és a személyre szabás előtérbe helyezésével, termékeny talajt teremt a félrevezető tartalmak gyors és széles körű terjesztéséhez, kulcsfontosságú vektorrá téve őket a befolyásolási műveletek számára.
Az AI-dezinformáció egy kifinomult, többrétegű ellátási láncot is magában foglal. A NewsGuard kiemeli a Plágium-bot weboldalakat, amelyek a mainstream tartalmakat hiteltelenül írják át, valamint a tartalomgyárak finanszírozását programozott hirdetések révén. Ez azt jelenti, hogy nem csupán a tartalom létrehozásáról van szó, hanem annak beszerzéséről, újracsomagolásáról, terjesztéséről és monetizálásáról is. A sebezhetőség túlmutat az eredeti rosszindulatú szereplőn, kiterjed az egész digitális hirdetési és tartalom-ökoszisztémára, ahol legitim vállalkozások és hirdetési hálózatok akaratlanul is finanszírozhatják és legitimálhatják ezeket a műveleteket. Ez azt sugallja, hogy a hatékony ellenintézkedéseknek nemcsak a termelőket, hanem az elosztókat és a finanszírozókat is meg kell célozniuk ebben az ellátási láncban.
Hatás a demokráciára, a társadalomra és az információ integritására
A bizalom eróziója és kognitív kihívások
Az AI-vezérelt befolyásolási műveletek mélyreható és sokrétű következményekkel járnak a demokráciára, a társadalomra és az információ integritására nézve.
Információs túlterhelés és szennyezés: Az AI-generált tartalom növekedése, párosulva azzal a növekvő nehézséggel, hogy azonosítsuk, gépi eredetű-e, információs túlterheléshez és a nyilvános szféra szennyezéséhez vezet. Ez rendkívül megnehezíti a megbízható információforrások megtalálását és a demokratikus folyamatokba, valamint intézményekbe vetett bizalom fenntartását.
Pszichológiai manipuláció és kognitív terhelés: Az AI azon képessége, hogy meggyőző tartalmat állítson elő, felerősíti a pszichológiai manipuláció kockázatát, jelentős kognitív kihívást teremtve a demokratikus társadalmak számára. Az egyének nehezen tudják megkülönböztetni az autentikus és a manipulált információt, ami még a kifinomult médiaorgánumok és kormányzati szervek számára is kihívást jelent.
Cinizmus és választói zavar táplálása: Az AI-generált félretájékoztatás és dezinformáció könyörtelen áradata növeli a választói zavart, hamis képet alkot a jelöltekről, és cinizmust táplál az egész választási folyamat iránt.
Társadalmi előítéletek fenntartása: Mivel az AI-modelleket múltbeli adatokon képzik, azok tükrözik a meglévő társadalmi előítéleteket, és kockáztatják azok fenntartását az általuk generált tartalmakban, ami potenciálisan visszhangkamrákat hoz létre, amelyek elfojtják az új ötleteket.
A bizalom eróziója stratégiai céllá válhat. Az elemzés azt mutatja, hogy az AI-generált tartalom cinizmust táplál az egész választási folyamat iránt, és a bizalom eróziója sérülékenyebbé teheti a demokratikus rendszereket a külső beavatkozással szemben, és kevésbé ellenállóvá a belső megosztottsággal szemben, amelyet az ellenfelek könnyen kihasználhatnak. Ez arra utal, hogy egyes befolyásolási műveletek célja nem feltétlenül az, hogy az embereket egy konkrét hamis állításról meggyőzzék, hanem az, hogy erodálják az intézményekbe, a médiába és magába a demokratikus folyamatba vetett általános bizalmat. Az információs környezet meggyőző hamisítványokkal és ellentmondásos narratívákkal való elárasztásával a cél a meggyőzésről a bénultságra és a bizalmatlanságra tevődik át, ami sérülékenyebbé teszi a társadalmakat a kihasználással szemben.
Ezen túlmenően, az AI-vezérelt demos scraping fenyegeti az egyéni autonómiát. A kormányok és politikai szereplők egyre inkább függenek az adatvezérelt vállalati gyakorlatoktól, amelyek elmosódnak a polgárok és a fogyasztók közötti határvonalak, kihasználva a polgárok gazdasági, politikai és kulturális preferenciáinak árnyalt ismeretét, hogy előre jelezzék és befolyásolják politikai döntéseiket a 'demos scraping' révén. Ez egy mélyebb szintű manipulációt jelent, mint a széles körű dezinformáció. A digitális lábnyomok folyamatos gyűjtésével és elemzésével az AI rendkívül személyre szabott és célzott politikai üzeneteket tesz lehetővé. Ez veszélyezteti az egyéni autonómiát és a megalapozott döntéshozatalt, mivel a polgárokat már nem csak általános narratíváknak teszik ki, hanem célzottan, ismert sebezhetőségeik és előítéleteik alapján célozzák meg, ami megnehezíti az ellenállást.
A nyilvánosság sebezhetősége és ellenálló képessége
A nyilvánosság sebezhetősége és ellenálló képessége az AI-vezérelt dezinformációval szemben számos tényezőtől függ.
A sebezhetőséggel kapcsolatos kockázati tényezők:
Kognitív torzítások: Az egyének nagyobb valószínűséggel foglalkoznak félretájékoztatással és hisznek benne, ha az támogatja meglévő véleményüket vagy világnézetüket (megerősítési torzítás). Hajlamosak túlbecsülni tudásukat bizonyos témákban, és alacsonyabb pontszámot érnek el az analitikus gondolkodás tesztjein.
Pszichológiai állapot: Az összeesküvés-elméletekre való hajlam, a közintézmények iránti bizalmatlanság, valamint a stressz és frusztráció növeli a sebezhetőséget.
Demográfia: Az idősebb emberek nagyobb valószínűséggel osztanak meg félretájékoztatást, míg a fiatalabbak (18 év alattiak) nagyobb valószínűséggel hisznek a félrevezető narratíváknak. Egyes tanulmányok szerint a férfiak nagyobb valószínűséggel terjesztenek politikai dezinformációt, mint a nők.
Információfogyasztási szokások: Azok a felhasználók, akik hírekért a közösségi médiára (nem pedig a hagyományos médiára) támaszkodnak, nagyobb kockázatnak vannak kitéve.
Harmadik személy percepciós torzítása: Az egyének hajlamosak kevésbé sebezhetőnek érezni magukat a deepfake-ekkel szemben, mint mások, túlbecsülve saját azonosító képességüket, és alábecsülve másokét.
Az ellenálló képesség védő tényezői:
Digitális műveltség és kritikus gondolkodás: A kritikus gondolkodás és az információ-ellenőrzési szokások hiánya kockázati tényező, ami azt jelenti, hogy a fokozott digitális műveltség védő tényező.
Erős közszolgálati műsorszolgáltató ökoszisztéma: A robusztus és megbízható közszolgálati műsorszolgáltató rendszer növelheti a nyilvánosság ellenállását a dezinformációval szemben.
Alacsony politikai polarizáció: A magas polarizáció sebezhetőbbé teszi a társadalmakat a belső megosztottsággal szemben, amelyet az ellenfelek kihasználhatnak.
Szkeptikus kultúra: A szkepticizmus kultúrájának ápolása kulcsfontosságú.
Az AI-vezérelt tartalom és az algoritmusok felerősítik a visszhangkamrákat. Az egyének nagyobb valószínűséggel foglalkoznak (és hisznek) félretájékoztatással és dezinformációval, ha az támogatja meglévő véleményüket vagy világnézetüket. Az AI-modellek tükrözik a meglévő társadalmi előítéleteket, és kockáztatják azok fenntartását. Ez egy visszacsatolási hurkot jelent: az AI-generált tartalom a meglévő előítéletekhez igazodik, és a közösségi média algoritmusai ezután felerősítik ezt a tartalmat a hasonló gondolkodású csoportokon belül, megerősítve a meglévő nézőpontokat ahelyett, hogy megkérdőjeleznék azokat. Ez visszhangkamrákat hoz létre és erősít meg, ami kevésbé ellenállóvá teszi a társadalmakat a külső manipulációval szemben, és hajlamosabbá a belső megosztottságra.
A dezinformáció és a védekezés közötti erőfeszítés aszimmetriája jelentős kihívást jelent. Az egyéni sebezhetőségek (kognitív torzítások, pszichológiai állapotok, demográfia, médiafogyasztási szokások) leküzdése kiterjedt, hosszú távú erőfeszítéseket igényel az oktatás, a média műveltsége és a kritikus gondolkodás előmozdítása terén. Ezzel szemben az AI lehetővé teszi a rosszindulatú szereplők számára, hogy nagyobb sebességgel és kifinomultsággal, sokkal alacsonyabb költséggel terjesszenek dezinformációt. Ez alapvető aszimmetriát mutat: sokkal olcsóbb és gyorsabb dezinformációt generálni és terjeszteni AI segítségével, mint társadalmi ellenálló képességet építeni ellene. Ez az egyensúlyhiány jelentős stratégiai kihívást jelent, amely aránytalanul nagy befektetést igényel a védekezésbe, hogy lépést tudjunk tartani.
Ellenintézkedések és enyhítési stratégiák
Ipari kötelezettségvállalások és végrehajtási kihívások
A technológiai vállalatok és közösségi média platformok felismerték az AI-vezérelt dezinformáció jelentette fenyegetést, és önkéntes kötelezettségvállalásokat tettek a kockázatok mérséklésére.
A Müncheni Egyezmény (2024. február): Huszonhét AI vállalat és közösségi média platform, köztük a Google, Meta, Microsoft, OpenAI és TikTok, aláírt egy egyezményt, amely elismerte az AI-generált dezinformáció választásokat aláásó kockázatait.
Nyolc kulcsfontosságú kötelezettségvállalás:
Technológia fejlesztése a megtévesztő AI-választási tartalom létrehozásának megakadályozására: Ez magában foglalja olyan eszközök fejlesztését vagy telepítését, mint a vízjelezés, metaadat-címkézés és AI-generált tartalom-osztályozók az autenticitás ellenőrzésére.
AI-modellek értékelése választásokkal kapcsolatos kockázatok szempontjából: A vállalatok vállalták, hogy értékelik AI-modelljeik sebezhetőségét a dezinformációban való visszaélés megakadályozása érdekében.
Megtévesztő AI-választási tartalom észlelése a platformokon: Ez a kötelezettségvállalás az automatizált észlelés, a tartalommoderálás és az interoperábilis azonosítók fejlesztésére összpontosít az AI-generált tartalom és az autentikus média megkülönböztetésére.
Hatékony reagálás a megtévesztő AI-választási tartalomra: Ez magában foglalja az AI-generált tartalom címkézését, kontextus biztosítását és a politikák érvényesítését a választásokkal kapcsolatos dezinformáció terjedésének korlátozására.
Iparági együttműködés az AI-vezérelt választási kockázatok ellensúlyozására: A vállalatok megállapodtak abban, hogy megosztják a legjobb gyakorlatokat, észlelési eszközöket és technikai jeleket a kollektív védekezés erősítése érdekében.
Átláthatóság növelése az AI választási politikáiban: Ez magában foglalja a politikák közzétételét, a kutatási frissítések megosztását és a nyilvánosság tájékoztatását az AI-tartalom elleni fellépéseikről.
Kapcsolattartás a civil társadalommal és szakértőkkel: A vállalatok elkötelezték magukat a civil társadalmi szervezetekkel, akadémikusokkal és szakértőkkel való együttműködésre stratégiáik finomítása és a felmerülő fenyegetések előtt járás érdekében.
A nyilvánosság oktatása az AI-generált választási tartalomról: Ez a kötelezettségvállalás a média műveltségi kezdeményezések támogatását, tartalom-ellenőrző eszközök biztosítását és nyílt forráskódú források fejlesztését foglalja magában, hogy segítse a választókat az AI-vezérelt dezinformáció felismerésében.
A végrehajtás megállapításai (Brennan Center értékelése):
Részvétel hiánya: Az aláírók kevesebb mint fele nyújtott be előrehaladási jelentést az egyezmény weboldalára, vagy válaszolt a Brennan Center kérésére. Csak a vállalatok 85%-a nyújtott be valamilyen információt Mark Warner szenátornak.
Specificitás hiánya: Sok jelentésből hiányoztak a részletek vagy a bizonyítékok (pl. az X általános nyilatkozata, a Stability.ai hivatkozása a tagságra konkrét kezdeményezések nélkül). Átlagosan a vállalatok a nyolc kötelezettségvállalásnak csak 66,4%-át teljesítették.
Reszponzív vállalatok: Az ElevenLabs, Google, LG AI Research, Microsoft, OpenAI és TikTok kiemelkedett azzal, hogy minden információs kérésre válaszolt. A Google például részletesen beszámolt a média műveltségbe való befektetéseiről, választási információs panelek létrehozásáról és 25 millió eurós hozzájárulásáról a Global Fact Check Fundhoz.
A önkéntes egyezményekről levont következtetés az, hogy bár pozitív lépésnek számítanak, nem helyettesítik a végrehajtható szabályozást és a külső felügyeletet. Kritikus hiányosságok közé tartozik a civil társadalmi csoportok kizárása a részvételből, valamint a független ellenőrzési mechanizmusok vagy a haladás részletezésére vonatkozó elfogadott mérőszámok hiánya.
Az ipari válaszban megfigyelhető a kötelezettségvállalás és a tényleges cselekvés közötti szakadék. A Müncheni Egyezmény azt mutatja, hogy az iparág tisztában van a fenyegetéssel és hajlandó kötelezettséget vállalni. A Brennan Center értékelése azonban jelentős részvétel hiányát és specificitás hiányát tárja fel a végrehajtás terén. Ez egy szakadékot jelez a magas szintű ígéretek és a konkrét, ellenőrizhető cselekedetek között. Ez a szakadék azt sugallja, hogy az önkéntes keretrendszerek, bár hasznosak a normák megállapításában, nem elegendőek a szükséges rendszerszintű változások eléréséhez erősebb elszámoltathatósági mechanizmusok, például független ellenőrzések és szabályozási felügyelet nélkül.
Ha egyes vállalatok érzékenyebbek (ElevenLabs, Google, Microsoft, OpenAI, TikTok), míg mások kevésbé (X, Stability.ai), és nincs független ellenőrzés vagy szankció a nem megfelelésért, az verseny az aljára helyzetet teremt az elszámoltathatóság terén. Azok a vállalatok, amelyek jelentős erőforrásokat fektetnek az ellenintézkedésekbe, hátrányos helyzetbe kerülhetnek, ha versenytársaik nem teszik meg ugyanezt, ami vonakodáshoz vezethet az erőforrások teljes elkötelezésétől egy szabályozás által biztosított egyenlő feltételek hiányában. Ez aláássa a kollektív védekezési erőfeszítéseket, és jelentős sebezhetőségeket hagy kezeletlenül a digitális ökoszisztémában.

Kormányzati és civil társadalmi válaszok
A technológiai vállalatok erőfeszítései mellett a kormányok és a civil társadalom is kulcsszerepet játszanak az AI-vezérelt dezinformáció elleni küzdelemben.
Jogalkotási erőfeszítések: Egyes államok, mint Kalifornia és Texas, már törvényeket hoztak a deepfake-ek rosszindulatú felhasználása ellen. A politikai döntéshozókat sürgetik, hogy átfogó átláthatósági követelményeket, végrehajtási mechanizmusokat és biztosítékokat vezessenek be, mivel a jelenlegi önkéntes kötelezettségvállalások nem elegendőek.
Média műveltségi kezdeményezések: A média műveltség támogatása kulcsfontosságú kötelezettségvállalás a technológiai vállalatok számára, és a Tech for Truth nevű civil szervezet elsődleges célja is. Ezek a kezdeményezések arra irányulnak, hogy az egyéneket felvértezzék a komplex információs környezetben való navigáláshoz és a hiteles források felismeréséhez szükséges készségekkel. A Google például jelentős összegeket fektetett a média műveltségbe.
Tényellenőrző és ellenőrző eszközök: A tényellenőrzéshez szükséges hozzáférhető eszközök fejlesztése is cél, és a vállalatok elkötelezettek a tartalom-ellenőrző eszközök biztosítása iránt.
Együttműködési keretrendszerek: A Tech for Truth kezdeményezés hangsúlyozza az oktatási intézmények, technológiai vállalatok és civil szervezetek közötti együttműködést. A Müncheni Egyezmény is kiemeli az iparágon belüli együttműködést és a civil társadalommal és szakértőkkel való kapcsolattartást.
AI felhasználása a védekezésben: A keretrendszerek heurisztikus alkalmazása azt sugallja, hogy magát az AI-t kell felhasználni a befolyásolási kampányokban való rosszindulatú felhasználása elleni védekezés megerősítésére. Automatizált módszerekre van szükség a befolyásolási műveletek gyorsabb és nagyszabásúbb észleléséhez, jellemzéséhez és attribúciójához. A Lincoln Laboratory olyan szoftvert fejleszt, amely AI technikákat (NLP, gépi tanulás, gráfelemzés) kombinál a rosszindulatú befolyásolási narratívák feltárására és a szereplők hatásának számszerűsítésére.
Az AI kettős felhasználhatóságának dilemmája kulcsfontosságú. A technológia önmagában semleges, és mindig is kettős felhasználású volt. Az AI-t fel kell használni a védekezés megerősítésére, és automatizált módszerekre van szükség az észleléshez és attribúcióhoz. Ez folyamatos technológiai fegyverkezési versenyt jelent, ahol az AI támadó képességeinek fejlődését az AI védekező képességeinek hasonlóan gyors fejlődésével kell ellensúlyozni. Ez etikai kérdéseket is felvet az ilyen erőteljes eszközök fejlesztésével és bevezetésével kapcsolatban.
A technikai megoldások önmagukban nem elegendőek; jelentős társadalmi ellenálló képességi hiány áll fenn. Míg a technológiai vállalatok technikai megoldásokra összpontosítanak (vízjelezés, észlelés, moderálás), a kutatási anyagok hangsúlyozzák a média műveltségét, a kritikus gondolkodást és a szkeptikus kultúrát is. A Tech for Truth kezdeményezés problémamegállapítása kifejezetten említi, hogy az egyének gyakran képtelenek megkülönböztetni a hiteles forrásokat a megbízhatatlanoktól. Ez azt jelzi, hogy a technikai javítások önmagukban nem elegendőek. Ez a hiányosság hosszú távú befektetést igényel az emberi kognitív védekezésbe. Az emberi tényező kezelése nélkül még a legfejlettebb technikai ellenintézkedéseket is kikerülheti a kifinomult pszichológiai manipuláció.
A jövő információs hadviselése megköveteli az átfogó, több érdekelt felet felölelő megközelítés sürgősségének felismerését. Ez a megközelítés magában foglalja a robusztus technológiai védekezést és a társadalmi ellenálló képességbe való tartós befektetést, felismerve, hogy ez egy folyamatos kihívás az információs hadviselés fejlődő területén. A demokratikus társadalmak jövője azon múlik, hogy képesek-e kollektíven alkalmazkodni és védekezni ezekkel a kifinomult és gyorsan fejlődő fenyegetésekkel szemben.