Alig 25 napunk maradt az áprilisi választásokig, a közösségi médiát pedig máris elárasztották a gyanúsan tökéletes, vagy éppen szívbe markoló tartalmú képek. A technológia fejlődésével ma már bárki generálhat megtévesztő vizuális üzeneteket, ám egy friss magyar tanulmány szerint van ellenszer. A Budapesti Corvinus Egyetem kutatója, Miskolczi Márk a Computers in Human Behavior márciusi számában publikált kutatásában rántotta le a leplet arról, hogyan manipulál minket az AI.
Érzelmi csapda: miért hisszük el a hazugságot?
A kutatás során 146 mesterséges intelligenciával készült képet és több mint kilencezer Facebook-felhasználó reakcióit elemezték. Az eredmények döbbenetesek: az AI akkor a leghatékonyabb, ha nem az eszünkre, hanem a szívünkre hat. A nosztalgia, a vallásos áhítat vagy a mély empátia – például egy mosolygós idős pár vagy egy romok között síró kisgyermek látványa – azonnal aktiválja az agyunk kognitív torzításait. Ilyenkor lép működésbe a megerősítési torzítás (azt hisszük el, ami beleillik a világképünkbe) vagy a csoportgondolkodás (ha mindenki lájkolja, biztosan igaz).
„A közösségi médiás AI-képek az érzelmi megtévesztés mesterei. A valódinak elhitetett AI-képek elterjedése hosszabb távon az online platformok iránti és a mesterséges intelligencia iránti általános bizalmat is gyengítheti. Emiatt sürgősen szabályozni kell a területet” – figyelmeztet a tanulmány szerzője.
A 8 vizuális hiba, amibe belebukik az algoritmus
Bár a gépi tanulás félelmetesen gyors, a fizika törvényei és az emberi anatómia finomságai még mindig kifognak rajta. Miskolczi Márk nyolc olyan kritériumot gyűjtött össze, amelyeket alkalmazva AI-szoftverek nélkül is kiszűrhetjük a csalást:
-
Anatómiai pontatlanságok: A leggyakoribb hiba a végtagoknál jelentkezik. Számoljuk meg az ujjakat vagy a fogakat – a hat ujj vagy a dupla fogsor tipikus „AI-betegség”.
-
Aszimmetria az arcon: Figyeljük meg a szemeket! Ha az egyik pupilla másfelé néz, vagy a fül formája természetellenesen torz, gyanakodjunk. A hajvonalak is gyakran beleolvadnak a bőrbe.
-
Zavar a környezetben: Gyakoriak a lebegő tárgyak, vagy olyan eszközök, amiket a képen szereplő alak lehetetlen szögben tart.
-
Természetellenes textúrák: Ha a bőr gyanúsan sima, mint a porcelán, vagy a ruhák mintázata szabálytalanul ismétlődik, jó eséllyel algoritmus áll a háttérben.
-
A fizika és a gravitáció: Nézzük meg az árnyékokat! Ha nem a fényforrás irányába esnek, vagy ha egy pohárban az ital szilárd tömbnek tűnik, a kép hamis.
-
Szöveg- és betűhibák: Az AI még mindig hadilábon áll az írással. Az elmosódott, értelmetlen karakterek vagy a félrebetűzött feliratok a háttérben azonnal lebuktatják a generátort.
-
Túlzott szimmetria: Az emberi arc sosem tökéletesen szimmetrikus. A természetellenes „tökéletesség” gyakran a gép műve.
-
Hibák a tömegjelenetekben: A háttérben álló alakok az AI-képeken gyakran felismerhetetlen masszává folynak össze, az állatoknak pedig plusz lábaik vagy hiányzó farkuk lehet.
Bot-fiókok a háttérben: a kampány sötét oldala
A kutatás arra is rávilágít, hogy az AI-képek ritkán járnak egyedül. Gyakran automatizált bot-fiókok terjesztik őket, amik első ránézésre kedves, inspiráló profiloknak tűnnek. Azonban itt is vannak árulkodó jelek: gyanús, ha egy profil a hazai időzóna szerint hajnali háromkor posztol sorozatban, vagy ha a bejegyzései sablonosak és sosem lép valódi interakcióba a kommentelőkkel.
A választási kampány hajrájában a politikai szereplők is egyre gyakrabban nyúlnak ezekhez az eszközökhöz a közösségi manipuláció érdekében. A digitális írástudásunk fejlesztése most nem csupán technikai érdek, hanem a demokrácia védelme is. Ahogy a tanulmány konklúziója fogalmaz: maradjunk résen, és ne feledjük, hogy a legbiztosabb forrás továbbra is a személyes, hús-vér kapcsolat.