Generatívne nástroje ako ChatGPT či Midjourney momentálne dominuje svetu umelej inteligencie, vo všeobecnosti stále ignorujeme etické otázky týkajúce sa tém, akými sú smútok a trúchlenie, píše portál Engadget.
Jasné, pápež vo veľkej páperovej bunde či Harry Potter na taliansky spôsob je cool, ale myslieť v súvislosti s AI na svojich zosnulých blízkych? To veľmi nie. Aj napriek tomu minimálne jedna spoločnosť už ponúka digitálnu nesmrteľnosť, no je to rovnako nákladné ako desivé.
Vlastná digitálna verzia
Re;memory je služba, ktorú ponúka Deepbrain AI – spoločnosť, ktorej hlavnou činnosťou sú interaktívne obrazovky typu „virtuálnych asistentov“ spolu s AI moderátormi správ. Kórejská firma dotiahla svoje skúsenosti so svadbou chatbotov a generatívneho videa AI do konečného, strašidelného záveru.
Len za 10-tisíc dolárov (8 920 eur) a pár hodín v štúdiu si môžeš vytvoriť avatara, ktorého môže tvoja rodina navštíviť. Deepbrain sídli v Kórei a medzi smútočné tradície v krajine patrí „Jesa“, každoročná návšteva miesta odpočinku zosnulých. Teda niečo podobné, ako my robíme na deň Pamiatky zosnulých.
Aby sme boli presní, spoločnosť netvrdí, že replikuje osobnosť s príliš veľkou hĺbkou - testovacia súprava v skutočnosti umožňuje avatarovi mať iba jednu „náladu“. Re;memory sa v súčasnosti nesnaží vytvoriť skutočnú kópiu, ale len verziu, ktorú môžeš navštíviť a mať s ňou základné interakcie.
Desivé vytriezvenie
Re;memory ťaží najmä z toho, že je video avatarom, ktorý dokáže odpovedať na tvoje otázky, umelá inteligencia HereAfter založená na zvuku sa snaží zachytiť trochu viac osobnosti pomocou série otázok. Výsledkom je audio chatbot, s ktorým môžu priatelia a rodina komunikovať a dostávať verbálne odpovede a dokonca aj príbehy a anekdoty z minulosti.
Podľa všetkého predtrénovaní chatboti poskytujú presvedčivé odpovede v hlasoch svojich majiteľov – až kým ilúzia nie je bez okolkov prelomená, keď roboticky odpovie: „Prepáčte, nerozumel som tomu. Môžete sa skúsiť opýtať inak alebo prejsť na inú tému,” na akúkoľvek otázku, na ktorú nemá odpoveď.
Či tieto technológie vytvoria realistického avatara nie je prvoradým problémom. AI sa vyvíja takým raketovým tempom, že sa určite dostane na uspokojivú úroveň. Zložitejšie otázky sa točia okolo toho, kto vlastní tohto avatara, keď tu nebudeš? Alebo sú tvoje spomienky a dáta v bezpečí? A aký dopad to všetko môže mať na tých, ktorých tu zanecháme?
Nemôžeme tráviť čas iba spomínaním
Joanna Bryson, profesorka etiky a technológie na Hertie School of Governance, prirovnáva súčasnú vlnu technológie smútku k dobe, keď bol Facebook u mladých ľudí obľúbenejší. Vtedy to bola bežná destinácia na spomienku na priateľov, ktorí nás opustili, a emocionálny dopad toho bol ohromujúci.
„Bola to taká nová, bezprostredná forma komunikácie, keď deti nemohli uveriť, že sú preč. A vážne veria, že to čítali ich mŕtvi priatelia. A oni hovoria: ‘Ja viem, vidíš to.‘“
Neodmysliteľná extra dimenzia, ktorú avatary AI prinášajú, len pridáva palivo k obavám o vplyv, ktorý by tieto výtvory mohli mať na naše smútiace mozgy. „Čo to robí s tvojím životom, že tráviš čas spomínaním... možno je dobré mať nejaký čas na to, aby si to spracoval. Ale môže sa to zmeniť na nezdravú posadnutosť.“
Riziko zneužitia
Bryson si tiež myslí, že tá istá technológia by sa mohla začať používať spôsobom, akým pôvodne nebola zamýšľaná. „Čo ak ste tínedžer a trávite všetok čas na telefóne so svojím najlepším priateľom? A potom prídeš na to, že dávaš prednosť AI a prestaneš hovoriť so svojím skutočným najlepším priateľom,“ hovorí profesorka.
Samozrejme, že tento scenár presahuje súčasné možnosti. V neposlednom rade preto, že na vytvorenie verzie AI nášho najlepšieho živého priateľa by sme potrebovali toľko údajov, že by sme potrebovali ich účasť/súhlas v tomto procese. To však už v budúcnosti nemusí platiť.
Nedávna vlna falošných skladieb umelej inteligencie v štýle známych umelcov je už možná a nebude trvať dlho, kedy nebudeš musieť byť celebritou, aby bolo k dispozícii dostatok verejne dostupných informácií na napájanie generatívnej AI. Napríklad VALL-E od Microsoftu dokáže odviesť slušnú prácu pri klonovaní hlasu iba s tromi sekundami zdrojového materiálu.
Internet je zaplavený príbehmi rodičov a blízkych, ktorí hľadajú prístup k e-mailom alebo účtom svojich zosnulých, aby si ich zapamätali prostredníctvom toho, čo robili. Či už v dobrom alebo v zlom, nemusíme sa cítiť pohodlne, keď povieme našej najbližšej rodine o našej sexualite alebo politických názoroch, alebo o tom, že náš manželský partner mal aféru – všetko, čo by naše súkromné digitálne správy mohli odhaliť.
Bezpečnosť musí byť základ
A ak si nedáme pozor, mohli by to byť údaje, ktoré neúmyselne odovzdáme AI na školenie, len aby to tajomstvo posmrtne odhalila. Dokonca aj so súhlasom osoby, ktorá je znovu vytvorená v AI, neexistujú žiadne záruky, že niekto iný sa nemôže dostať k tvojej digitálnej verzii a zneužiť ju. Problémom je, že právna ochrana sa zvyčajne vzťahuje na živých, nie mŕtvych.
Bryson naznačuje, že logickou odpoveďou na ochranu údajov môže byť niečo, čo už poznáme – ako napríklad lokálne uložené biometrické údaje, ktoré používame na odomykanie našich telefónov. „Apple nikdy nikomu neveril. Takže sú skutočne veľmi orientovaní na súkromie. Takže mám tendenciu si myslieť, že to je ten druh organizácie, ktorá príde s vecami, pretože to sami chcú.“
Údaje budú vždy ohrozené, bez ohľadu na to, kde a ako sú uložené. Je to nebezpečenstvo moderného života. A všetky tieto obavy o súkromie sa môžu zdať ako problém zajtrajška (rovnako, ako máme tendenciu sa obávať online podvodu, len keď sa nám to stalo). Náklady, presnosť a len všeobecná strašidelnosť, ktorú AI a naši budúci digitálni avatari vytvárajú, môžu byť strašidelné, no podľa nej predstavujú zdrvujúcu nevyhnutnosť.
Bryson chce poukázať na to, že existuje niekoľko pozitívnych poznatkov a sú dostupné pre živých. „Ak sa príliš zaoberáte smrťou, neuvažujete o nej správne,“ povedala. Táto technológia nás núti čeliť našej smrteľnosti novým, aj keď kurióznym spôsobom, a to nám môže len pomôcť premýšľať o vzťahoch, ktoré máme práve tu vo svete živých.