A mesterséges intelligencia (MI) fejlődése hatalmas lehetőségeket rejt magában, de új kihívásokat és veszélyeket is felvet. Különösen igaz ez mostanában, hiszen a szöveg-, kép-, hang- és videógenerálás területén egyre jobb és jobb hamisítvány anyagok jelennek meg, melyek sokszor olyan jól sikerülnek, hogy a szakavatott szemeknek is nehéz (ha nem lehetetlen) megkülönböztetni a hamisítványt a valóditól.
Ha tudjuk, manapság milyen lejáratások folynak a politikában a ma ismert eszközökkel, belegondolni is szörnyű, mikre lesznek képesek ezek után. Emlékezzünk csak vissza, a Midjourney megjelenésekor le kellett tiltani egyes politikusok nevét, hogy ne lehessen róluk hamisítvány képeket készíteni, mert a többség elhitte, amit a képeken látott. Mi lesz majd a közeli jövőben, ha a „hamisított” politikusok még a saját hangjukon beszélnek is?
Könnyen találni a neten teszteket, melyekkel ellenőrizhetjük, mi valódi és mi nem. Én többet is elvégeztem. Hát, elég sok ilyen képet készítettem már, a legnagyobb képalkotókat mind kipróbáltam, emellett a működésükről is sokat olvastam, rengeteget foglalkozom a témával, emellett a végzettségemből adódóan is az átlagnál talán jobban értek hozzá, de őszintén megmondom, engem is sikerült becsapni, nem is egyszer. Ha nincs a képen szöveg vagy ismert logó/márkajelzés/jelvény (melyet ritkán sikerül hibátlanul leutánozni), és nincs eggyel több ujja sem az alanynak, akkor kész, akár pénzfeldobással is dönthetnénk. Ezek a programok annyira tökéletes képet tudnak létrehozni, hogy egyszerűen nem lehet megmondani, mi valódi és mi nem. Amikor pedig az ilyen hamisítvány tartalmak kikerülnek a netre, akkor már mindegy. Hiába próbálják meg eltüntetni őket, ami egyszer ott volt, azt már lehetetlen elfelejtetni vagy semmissé tenni, és hiába adnak ki közleményt, hogy hamisítványról van szó, ez az információ már sokkal kevesebb emberhez fog eljutni, mint a sok esetben futótűzként terjedő tartalom.
Az alsó sorban szereplők a valódi emberek
Az olyan social engineering technikák, mint például az adathalászás vagy a megszemélyesítés is az MI-vel együtt fejlődnek. Ez utóbbi a hírességekre, politikusokra és átlagemberekre egyaránt veszélyes lehet. Például a deepfake videók olyan mesterségesen generált tartalmak, amelyekben valódi személyek arcát és hangját utánozzák. Az MI-nek köszönhetően ma már annyira meggyőzően, hogy azokat szinte lehetetlen megkülönböztetni az eredetitől. Ilyen deepfake videók már évek óta léteznek, viszont eddig elég erőforrás- és időigényes volt egy ilyet létrehozni, főleg jót. Viszont ma már olyan könnyű, mint egy Google-keresés. Mi csak megadjuk, mit szeretnénk látni, és legenerálja nekünk. Szinte azonnal.
A múlt hónapban Hongkongban egy multinacionális vállalatot 25 millió amerikai dollárral rövidítettek meg. A cég egyik pénzügyi munkatársát keresték meg, hogy egy titkos tranzakciót hajtson végre. Eleinte átverésre gyanakodott, ám meghívták egy csoportos videókonferenciára, ahol a vállalat pénzügyi igazgatója és más dolgozók fogadták, legalábbis ő azt hitte, mivel mindannyian teljesen úgy néztek ki, mint a valódi megfelelőik. A rövid megbeszélés során pusztán utasítások hangzottak el (mivel a csalók valójában nem élőben kommunikáltak az áldozattal), ám ez is elég volt az illető meggyőzéséhez. A videókonferencia után az elkövetők átváltottak szöveges kommunikációra, és 15 egyedi átutalásra adtak megbízást. Egyébként nem sokáig élvezhették a könnyen szerzett vagyonukat, hiszen 6 személyt már le is tartóztattak.
Jó lecke ez nekünk, hogy ma már a szemünknek és a fülünknek sem szabad hinni. Attól, hogy valami úgy totyog, úgy hápog és úgy néz ki, mint egy kacsa, még egyáltalán nem biztos, hogy az valóban kacsa.