V novom príspevku na svojom blogu kalifornská firma OpenAI uvádza, že „približne 0,15 % používateľov aktívnych počas daného týždňa vedie konverzácie, ktoré obsahujú explicitné náznaky potenciálneho samovražedného plánu alebo úmyslu“, informuje portál iDnes. Keďže spoločnosť nedávno informovala, že jej služby využíva približne 800 miliónov používateľov týždenne, ide o viac než milión ľudí, ktorí sa ChatGPT zverujú so samovražednými myšlienkami.
Firma ďalej uviedla, že zaznamenáva aj 0,05 % správ, ktoré obsahujú explicitné alebo implicitné náznaky samovražedných myšlienok či úmyslov.
Tieto informácie spoločnosť zverejnila preto, že pripravila úpravu správania svojho chatbota pri citlivých rozhovoroch. „Spolupracovali sme s viac ako 170 odborníkmi na duševné zdravie, aby sme pomohli ChatGPT spoľahlivejšie rozpoznávať príznaky úzkosti, reagovať s citom a nasmerovať ľudí k reálnej pomoci,“ uvádza OpenAI na svojom blogu. Podľa firmy sa jej tým podarilo o 65 až 80 % znížiť počet odpovedí, ktoré nezodpovedali správaniu, aké OpenAI vyžaduje. Týmto krokom reaguje spoločnosť na požiadavky väčšej zodpovednosti za správanie chatbota.
Pri tak veľkom množstve používateľov sa štatisticky vždy nájdu ľudia, ktorí trpia psychickými problémami. Podľa firmy približne 0,07 % týždenných používateľov vykazuje známky duševných ochorení, vrátane psychotických či manických stavov typických pre bipolárnu poruchu.
Tragický prípad mladíka a reakcia OpenAI
Reakcia prichádza po tom, čo rodina z Kalifornie zažalovala spoločnosť OpenAI kvôli smrti svojho šestnásťročného syna Adama Rainea. Tvrdí, že chatbot ChatGPT podporil jeho samovražedné myšlienky a dokonca mu poskytol podrobnosti o spôsoboch, ako si vziať život.
Firma reagovala s tým, že ChatGPT je navrhnutý tak, aby používateľov nasmeroval k vyhľadaniu odbornej pomoci, napríklad prostredníctvom krízovej linky 988 v Spojených štátoch. Zároveň priznala, že sa vyskytli situácie, keď ich systémy v citlivých prípadoch nereagovali tak, ako bolo zamýšľané.
Postupne preto pridala sprísnenie zásad používania svojich služieb, odkazy na kontaktné linky pomoci pre používateľov, ktorí vyhľadávajú informácie o samovražde, a do aplikácie ChatGPT pribudla aj rodičovská kontrola.
Umelá inteligencia pod drobnohľadom
OpenAI však nie je jediná spoločnosť, ktorú momentálne vyšetruje americká Federálna obchodná komisia (FTC) v rámci preverovania toho, ako firmy vyvíjajúce chatboty merajú, testujú a monitorujú potenciálne negatívne dopady tejto technológie na deti a dospievajúcich.
„Vyšetrovanie FTC sa snaží zistiť, aké kroky jednotlivé spoločnosti podnikli na posúdenie bezpečnosti svojich chatbotov fungujúcich ako spoločníci, ako obmedzujú používanie produktov deťmi a tínedžermi a tým aj potenciálne negatívne účinky na nich. Tiež sa zameriava na to, aké kroky uskutočnili na informovanie používateľov a rodičov o rizikách spojených s týmito produktmi,“ opisuje FTC svoje vyšetrovanie.
Vo všeobecnosti sa čoraz viac hovorí o tom, že chatboti poháňaní umelou inteligenciou môžu zhoršovať duševné zdravie a narúšať medziľudské vzťahy. Niekedy môžu dokonca čiastočne nahrádzať ľudské vzťahy a znižovať pocit osamelosti aj tam, kde to nie je žiaduce. Je to spôsobené aj tým, že trénovanie veľkých jazykových modelov sa odráža v ich schopnosti reagovať na emócie a komunikovať s ľuďmi podľa ich nálad a potrieb.
Portál iDnes patrí do portfólia vydavateľstva Mafra, ktorého súčasťou je aj Brainee.