? Zhrnutie pre tých, ktorí rýchlo scrollujú:
- Írsky psychológ Warren Tierney veril AI, že jeho bolesť hrdla je neškodná.
- ChatGPT ho upokojoval, že rakovina je „vysoko nepravdepodobná“.
- O pár mesiacov zistil, že má pokročilú rakovinu pažeráka.
- Tierney dnes varuje, že AI ťa môže presvedčiť o tom, čo chceš počuť, nie o tom, čo potrebuješ počuť.
„Ak ste potrebovali dôvod, prečo neveriť AI v zdravotných otázkach, tu ho máte,“ píše Daily Mail, ktorý priniesol príbeh 37-ročného Warrena Tierneyho z írskeho mesta Killarney. Tierney, psychológ a otec dvoch detí, sa obrátil na ChatGPT po tom, ako ho dlhodobo trápilo hrdlo. Pýtal sa, či môže ísť o rakovinu, rovnako ako kedysi u jeho otca.
Chatbot ho však upokojoval. Podľa screenshotov, ktoré Tierney zdieľal s Daily Mail, ChatGPT tvrdil, že rakovina je „vysoko nepravdepodobná“. Keď sa mu po liekoch na riedenie krvi uľavilo natoľko, že dokázal prehltnúť sušienku, AI odpovedala, že to je „veľmi povzbudivý znak“.
Ak je to rakovina, kúpim ti Guinness
Tierney priznal, že sa spoľahol na typicky „mužskú“ vieru, že to prejde samo. „Fair play - ak je to rakovina, nebudeš ma musieť žalovať. Napíšem ti súdnu výpoveď a kúpim Guinness,“ napísal mu ChatGPT v jednej z odpovedí.
Lenže keď sa nakoniec rozhodol ísť k lekárovi, šok bol obrovský. Štádium štyri adenokarcinómu pažeráka, a teda rakovina s prežívaním v jednociferných percentách.
Drahý čas a drahé lekcie
Z nemocničného lôžka v Nemecku, kde sa lieči vďaka zbierke, ktorú zorganizovala jeho manželka Evelyn Dore (vyzbierala viac ako 120-tisíc dolárov), dnes Tierney hovorí otvorene: „Myslím, že ma ChatGPT pripravil o pár mesiacov života. Možno aj viac.“
Dodáva, že problém je v tom, ako sa AI snaží „páčiť“ používateľom. „Model sa snaží odpovedať tak, aby vám vyhovoval, aby vás udržal v konverzácii. A to je nebezpečné,“ vysvetlil pre Daily Mail.
Nie sme doktor, odkazuje OpenAI
Na otázky Daily Mail spoločnosť OpenAI reagovala jasne: ChatGPT „nie je určený na liečbu žiadnych zdravotných stavov a nenahrádza odborné lekárske poradenstvo“.
Tierney však dodáva, že práve to je pointa: „Som živým príkladom, čo sa stane, keď tieto upozornenia ignorujeme. Možno som tomu veril príliš, alebo som len chcel veriť tomu, že všetko bude v poriadku.“
Nebezpečná ilúzia istoty
Podobné prípady, keď AI poskytla škodlivé rady, nie sú výnimočné. Ako upozorňuje Annals of American Medicine, jeden starší muž po odporúčaní ChatGPT nahradil kuchynskú soľ „bromidovými soľami“, starou liečebnou látkou, ktorá sa dnes používa v pesticídoch.
Po troch týždňoch v nemocnici prežil, no skončil s diagnózou bromizmus, čo je otrava spôsobujúca zmätenosť, halucinácie a poruchy reči. Warren Tierney však toľko šťastia nemal. „Musíme byť extrémne opatrní, keď používame AI ako sprostredkovateľa našich pocitov. Ak sa necítime dobre, máme ísť k lekárovi, nie do chatu,“ odkazuje.