Skip to content

Szele Tamás: Hadban az Algoritmussal

A Meta mégis úgy tesz, mintha ez a recsegő világ egy szolid, hotdogsütögetős party volna, igaz, az Elon Musk-féle X meg úgy, mintha már szét is esett volna a Mindenség apró darabokra.

Table of Contents

Sokan hiszik, hogy az algoritmusok, mivel kicsit sem emberiek, ezért elfogulatlanok is, „túl vannak jón és rosszon” akár megannyi Nietzsche, pedig ennek az ellenkezője igaz: az algoritmus vagy a mesterséges intelligencia még el sem jutott odáig, nem, hogy túl lenne az emberi tényezőkön – és ez most, a közel-keleti háború idején különösen meglátszik a közösségi oldalak moderációján.

Annyira, hogy a viták már a Meta csúcsait ostromolják. A WIRED magazin* úgy tudja, hogy az Izrael-Hamász konfliktussal kapcsolatos a Meta Felügyeleti Testület első sürgősségi ügye. A testület két olyan posztot vizsgál majd, amelyet azért távolítottak el, mert megsértették a Meta grafikus képek megosztását és veszélyes szervezetek és személyek ábrázolását tiltó irányelveit.

A Meta Felügyeleti Testülete bejelentette, hogy két gyorsított ügyet tárgyal, mindkettő az Izrael és a Hamász között zajló konfliktussal áll összefüggésben. Az ügyek két olyan posztot érintenek, amelyeket eredetileg eltávolítottak, majd visszaállítottak az Instagramon és a Facebookon, mert megsértették a Meta grafikus képek megosztására és veszélyes szervezetek és személyek ábrázolására vonatkozó irányelveit. Az egyik poszt az állítólag az Izraeli Védelmi Erők által az Al-Shifa kórház ellen elkövetett támadás utóhatását mutatta, a másik pedig egy olyan videót, amelyen a Hamász október 7-én egy izraeli túszt ejtett.

„A jelenlegi Izrael-Hamász konfliktus olyan jelentős eseményt jelent, ahol a Meta alkalmazhatta volna a felügyelőbizottság válságkezelésre vonatkozó újabb ajánlásait, és most azt értékeljük, hogy a vállalat hogyan tartja be vállalásait” – mondta Thomas Hughes, a felügyelőbizottság igazgatóságának vezetője a WIRED-nek. „Úgy látjuk, ez lehetőség arra, hogy megvizsgáljuk, hogyan kezeli a Meta a sürgős helyzeteket”.

Az év elején a testület bejelentette, hogy „sürgős helyzeteknek” nevezett esetekben „gyorsított eljárásokat” vállal.

A vállalatot kritika érte amiatt, ahogyan a konfliktus körüli tartalmakat kezelte. Októberben a 404 Media arról számolt be, hogy a Meta mesterséges intelligenciája a „palesztin” szót „palesztin terroristára” fordította, és sok palesztin úgy véli, hogy tartalmaikat elnyomták, „shadow-bannolták” vagy teljesen eltávolították.

A Meta, sok más közösségi médiaplatformhoz hasonlóan, automatizált eszközök és emberi tartalommoderátorok kombinációját használja – sokan közülük külsős alkalmazottak – annak eldöntésére, hogy egy tartalom sérti-e a platform szabályait. A vállalat egy listát is vezet az általa „veszélyes szervezeteknek és személyeknek” nevezett szervezetekről és személyekről – ezen olyan szervezetek és nevek szerepelnek, mint az Iszlám Állam, Hitler, a Ku Klux Klan és a Hamász. Sabhanaz Rashid Diya, a Meta politikai csapatának korábbi tagja és a Tech Global Institute, egy techpolitikai agytröszt alapító igazgatója a WIRED-nek elmondta, hogy egy automatizált rendszer gyakran nem lesz képes különbséget tenni a Hamászt tárgyaló vagy akár elítélő posztok és a támogatást kifejező posztok között.

„Felmerül a kérdés, hogy már a Hamász puszta említése is elegendő-e ahhoz, hogy az további hátrányos intézkedésekhez vezessen, vagy sem” – mondta Diya.

Az Izrael és Palesztina közötti 2021-es konfliktust követően a Felügyeleti Testület által kért és 2022-ben kiadott emberi jogi átvilágítási jelentés megállapította, hogy a vállalat egyszerre alkalmazta túlságosan és elégtelenül a saját irányelveinek egy részét, ami azt jelenti, hogy időnként olyan tartalmakat hagytak fent, amelyeket el kellett volna távolítani, és olyan tartalmakat, amelyek nem sértették a platform irányelveit, mégis eltávolították. A kutatók különösen azt találták, hogy „az arab nyelvű tartalmak esetében nagyobb volt a túlzott érvényesítés”, ami azt jelenti, hogy az arab nyelvű tartalmakat a Meta automatikus tartalommoderációs rendszerei nagyobb valószínűséggel távolították el.

Marwa Fatafta, az Access Now nevű nonprofit digitális jogvédő csoport MENA-politikai és érdekvédelmi igazgatója szerint a Meta rendszerei 2021 óta alig változtak, és úgy véli, hogy a vállalat tartalommoderálási irányelvei továbbra sem átláthatóak a felhasználók számára. Például Oroszország ukrajnai invázióját követően a Meta kivételt tett az erőszakra való felbujtással kapcsolatos irányelvei alól, lehetővé téve bizonyos országok felhasználóinak, hogy olyan tartalmakat tegyenek közzé, mint például „halál az orosz megszállókra”, utalva az orosz hadseregre, amelyeket normál esetben eltávolítanának. „Továbbra sem engedélyezzük az orosz civilek elleni erőszakra való felhívásokat” – mondta akkor a Meta szóvivője, Andy Stone a The Verge-nek.

„Nem világos, hogy egyes konfliktusok esetében miért teszünk kivételt, másoknál pedig miért nem” – mondja Fatafta. „Azt látjuk, hogy videókat és fotókat, néha csak a járókelők vagy újságírók videóit és fotóit távolítják el, és nem világos, hogy miért. Valóban a kontextusfüggőbb tartalommoderáció mellett szállunk síkra.”

Néhány ilyen esetben, mint például az Al-Shifa kórház posztja, a vállalat értékelni fogja, hogy a poszt „hírértékű”-e, és visszaállítja a képeket vagy videókat, ha a felhasználók fellebbeznek a törlési döntés ellen. Ez Diya szerint „nagyjából minden egyes válsághelyzetben” megtörténik. A túszokról készült videó esetében a felhasználó egy olyan felirattal tette közzé, amely arra buzdította az embereket, nézzék meg, hogy „jobban megértsék” az október 7-én történteket, ezzel megszegve a Meta régóta fennálló, a terrortámadások bemutatására vonatkozó irányelvét, valamint a túszokról készült azonosítható képek bemutatására vonatkozó új irányelvét. (A Meta október 7-e után ideiglenesen frissítette irányelveit, és eltávolította azokat a videókat, amelyeken a túszok azonosíthatóak.)

A Meta egy vállalati blogban azt írta, hogy „a Felügyeleti Testület iránymutatása ezekben az esetekben, valamint a más szakértőktől kapott visszajelzések segíteni fognak nekünk abban, hogy továbbfejlesszük irányelveinket és a folyamatban lévő Izrael-Hamász háborúra adott reakcióinkat”.

De a nagyobb probléma Diya szerint az, hogy a vállalat továbbra is egyedi helyzetként kezel minden egyes konfliktust, amely alkalomra szabott választ igényel. „A platformokon belül általános vonakodás tapasztalható a válságok megelőzésével vagy az azokra való felkészüléssel kapcsolatban, különösen, ha az az Egyesült Államokon kívül történik, még akkor is, ha az adott régióban már hosszabb ideje tart a konfliktus vagy az erőszak” – mondja. „De az elmúlt évtizedben elég sok válságot láttunk ahhoz, hogy megismerjünk bizonyos mintákat, és hogy milyen eszközöknek kell rendelkezésre állniuk.”

A Felügyeleti Testület 30 napon belül várható gyorsított döntései végül is erre késztethetik a vállalatot.

Pedig a problémák könnyen összegezhetőek. Alapvetően annyiról van szó, hogy egyrészt hibás a Meta stratégiája, amennyiben nem általános elvekre alapozva kezeli a politikai válságokat, hanem egyedi módon – szükséges ugyan a rugalmasság, de nem ennyire. Egy általános alapot már lehetne a válságok egyedi tulajdonságaihoz igazítani, csakhogy ez az alap hiányzik. A másik probléma az, hogy az algoritmus minden finomhangolása visszamenőleges is. Tehát ha nyolc évvel ezelőtt mondjuk még nem volt tilos egy kifejezés használata, de húsz perccel ezelőtt betiltották, akkor az algoritmust nem fogja érdekelni a sorrend: büntetni fog akkor is, ha az illető szó egy nyolc-tíz éves posztban szerepel.

A másik gond az, hogy a Meta algoritmusa a világ legelterjedtebben működő buhera Mátrixa: minden hangolgatás benne maradt, a kezdetek óta, és most már maga az ördög sem lenne képes kiigazodni azon, hogy milyen kifejezés melyik válságban vált tilossá vagy kerülendővé. A külpolitikai sajtó munkatársai tapasztalatból tudják – és tanulják minden nap – hogy mely szavak nem kerülhetnek bele a leadbe (bevezetőbe), melyeket nem okos képaláírásokban használni. Azért fontos ez a két elem, mert az algoritmus ezeket látja az egyébként más platformon megjelenő szövegből.

És végül: az algoritmus tényleg még oda sem ért a Jó és a Rossz fogalmához, nemhogy túllépett volna rajtuk: napi gyakorlat az, hogy valaki felemeli a szavát gonosz, veszélyes vagy aljas dolgok ellen, meg is nevezi őket, és őt büntetik meg –mert használta a tiltott szót vagy nevet!Ilyenformán maga az online sajtó léte válik értelmetlenné, hiszen ha nem nevezhetik meg a gonosztevőket, akkor nincs is miről írni. Ha pedig megnevezik, akkor jön a büntetés a szerzőnek, tehát sehogyan sem jó a mostani helyzet.

A Meta világát mintha egyre jobban akarnák közelíteni a cég tulajdonosai egy soha véget nem érő, kora őszi vasárnap délutánhoz egy amerikai kertvárosban: belefér a boldog születésnapok kívánása, bele az ételek fotózása, beleférnek a pletykák, de ne adja az Isten, hogy valódi, nyers hírek és tények is megjelenjenek, mert azok csúnyák, mocskosak és véresek.

Azok bizony, attól hírek. Nem véletlen, hogy a Washington Postban nem szokott vezéranyag megjelenni John Smith bankhivatalnok hétvégi barbecue-partyjáról.

A Meta mégis úgy tesz, mintha ez a recsegő világ egy szolid, hotdogsütögetős party volna, igaz, az Elon Musk-féle X meg úgy, mintha már szét is esett volna a Mindenség apró darabokra.

Harmadik valóban nagy platform meg nincs. Meg vagyunk mi áldva ezekkel...

*Israel–Hamas Conflict Sparks Meta Oversight Board’s First Emergency Case

Latest

Szele Tamás: Navalnij halála

Szele Tamás: Navalnij halála

Ma új fejezet kezdődött Oroszország történetében, aminek az elejét, meglehet, vérrel írják. De ha minden jól megy, a közepétől visszatérnek a tintához.

Members Public