Deepfake videáTwitter/Deborah Leary OBE
StoryEditor

Deepfake video kapitulácie Zelenského je len začiatok, tvrdí odborník. Ako táto technológia funguje?

knniDnes23.03.2022., 11:00h
Zložte zbrane. Takáto falošná výzva bojujúcim Ukrajincom od prezidenta Volodymyra Zelenského sa pred niekoľkými dňami šírila internetom. Išlo ale o profesionálne vytvorené podvodné video, takzvaný deepfake.
Lajkuj Brainee.sk na

Ako upozorňujú odborníci, tento prípad je iba začiatok. V rukách profesionálov môže technológia pomôcť vytvoriť pôdu pre mnohohodinové klamanie verejnosti a veľké vojenské akcie.

Je to necelý týždeň, čo sa internetom začalo šíriť video ukrajinského prezidenta Volodymyra Zelenského. V ňom vyzval Ukrajincov, nech kapitulujú. „Radím vám: zložte zbrane a vráťte sa k svojim rodinám. Nemali by ste v tejto vojne zomrieť. Radím vám: žite a ja budem robiť to isté,“ povedal.

Deepfake

Problém je, že na kapituláciu v skutočnosti Zelenskyj nevyzval. Video bolo falošné, išlo o takzvaný deepfake. Napriek tomu nazbieralo množstvo vzhliadnutí, vinou hackerov sa dokonca dostalo na web ukrajinskej televízie Ukraine 24 a jeho časť aj do samotného vysielania.

Video nebolo najkvalitnejšie. Veľkosť hlavy nezodpovedala proporciám trupu, nesedela ani farba kože. Napriek tomu odborníci varujú, že tento deepfake je len začiatok. „S technológiou deepfake a jej využitím vo vojnovom konflikte sa experimentuje už dlho. Prvýkrát bola ale využitá takto výrazne a drzo,“ popísal Adam Sybera, analytik programu Kremlin Watch.

Pojem deepfake označuje umelo vytvorené obrázky či videá, kde je niečia tvár nahradená tvárou niekoho iného. Vytvára ich umelá inteligencia - človek vloží do programu fotky a videá človeka, ktorého deepfake chce vytvoriť, umelá inteligencia potom nahradí jeho tvár tvárou inej postavy, ktorá je na pôvodnom videu či fotografii.

Zatiaľ „len“ vytvára chaos

Prvé deepfakes vznikli v deväťdesiatych rokoch. V posledných štyroch rokoch ale došlo k výraznému pokroku. Čím dokonalejšia pritom technológia je, tým je nebezpečnejšia. „To, čo urobilo Rusko s deepfake ukrajinského prezidenta, je pokus nakloniť dynamiku informačnej vojny v prospech Kremľa, pretože aj na tomto poli, zaplať pánboh, zatiaľ s Ukrajinou prehráva,“ myslí si Sybera.

Vzhľadom na nízku kvalitu bolo podľa neho pomerne jednoduché poznať, že nešlo o skutočnosť. Na Ukrajinu a Zelenského je navyše uprený zrak celého sveta. „Primárny účel teda podľa mňa nebol niekoho presvedčiť, skočilo na to minimum ľudí. Namiesto toho bolo cieľom zaniesť do informačného priestoru otázku, čo je skutočné. Akonáhle totiž začneme pochybovať o realite jedného videa, môžeme pochybovať o realite druhého,“ popísal Sybera.

Putin Prezident TASR/AP/Mikhail Klimentyev

Rusko tým chce zaplaviť informačný priestor ohromným množstvom falošných informácií, aby bolo čo najzložitejšie rozpoznať pravdu. S tým súhlasí aj Vít Kučík, hovorca Českých elfov, ktorí dezinformácie monitorujú. „Skutočná deepfake technológia je stále pomerne náročná a vyskytuje sa zriedka. V českom kybernetickom priestore prakticky neexistuje,“ vysvetlil.

Videá sa síce objavili aj tu, neboli ale príliš kvalitné. „Na druhej strane - ono to stačí. Častým omylom je presvedčenie, že propaganda a dezinformácia musí byť sofistikovaná a dokonalá. Nie, stačí, keď ich bude veľa a budú sa neustále opakovať. Kvantita zohráva u dezinformačnej propagandy oveľa podstatnejšiu úlohu ako sofistikovaná kvalita,“ uviedol.

Úplný gamechanger, devalvácia videa

Potenciál tak má technológia predovšetkým do budúcnosti. Zdokonaľuje sa totiž každým dňom. A v rukách profesionálov môžu vznikať videá, ktorým uveria davy. „Kvalitné deepfake video samo o sebe väčšinou nič neznamená, stačí ho však rozšíriť a potom už sa bude len cykliť v konšpiračných komunitách, ktoré sú od reality tak či onak odtrhnuté a deepfake technológia je pre utvrdenie ich presvedčenia vlastne aj škoda,“ myslí si Kučík. .

Pravé riziko hrozí, keď technológiu využijú profesionáli, ktorí okrem samotného videa vytvoria aj vhodné podmienky na jeho šírenie. Teda pokiaľ ho rozšíria v novinárskych komunitách, vytvoria okolnosti, ktoré budú zdanlivo potvrdzovať pravosť záberov a podobne.

„Potom sa môže stať, že tomu významná časť spoločnosti bude niekoľko desiatok hodín veriť, než klamstvo začne dostávať významnejšie trhliny a bude odhalená. A týchto niekoľko desiatok hodín bude stačiť nejakej mocnosti, aby vykonala akciu, ktorú by inak vykonať nemohla,“ popísal Kučík. Samotné video tak hrá len malú, ale zato nezastupiteľnú rolu.

Podľa Syberu nie je Rusko vo vedení informačnej vojny schopnejšie než zvyšok sveta, ale zase je všetkého schopné. Rozdiel je v tom, že sa neštíti ničoho, ani útokov na najnižšie pudy. A potenciál technológie deepfake napríklad v špinavých volebných kampaniach je až katastrofický. „Syntetické médiá a deepfakes menia, a čoskoro úplne zmenia, náš svet,“ predpovedal.

Falošné porno

Hoci je pravdepodobné, že už čoskoro bude mať aj priemerný laik schopnosť vyrábať nerozpoznateľné deepfake videá, dezinformačný potenciál nie je v ich rukách taký silný. Podľa Kučíka povedie skôr k devalvácii videa ako dôkazného materiálu a rastu dôležitosti zdroja.

Deepfake technológia môže ale škodiť aj iným spôsobom. A to napríklad v kontexte revenge porna – šírenia pornografického materiálu človeka, ktorému chceme ublížiť. Ten pritom nemusí byť autentický, ale vyrobený práve pomocou umelej inteligencie. Takýto obsah napokon teraz podľa doterajších výskumov tvorí až 96 percent všetkých deepfake videí.

Väčšina doterajších deepfakes sa zameriava skôr na celebrity. Veľmi jednoducho už ale možno vytvoriť aj pornografické videá osôb, ktoré verejne známe nie sú. „Obeťou deepfakes, aj tých pornografických, sa tak môže stať skutočne každý,“ myslí si Michaela Dvořáková z Právnickej fakulty Masarykovej univerzity.

Top rozhovor
menuLevel = 4, menuRoute = notsorry/news/tech/ako-na-to, menuAlias = ako-na-to, menuRouteLevel0 = notsorry, homepage = false
22. december 2024 11:59