Umelá inteligenciaPixabay
StoryEditor

Keď AI stratí zábrany. Experti potvrdili, že ak by jej hrozilo vypnutie, vydierala by nás a dokonca nechala zomrieť ľudí

Miroslav Kamody26.06.2025., 11:00h

Najnovšia štúdia od spoločnosti Anthropic ukazuje znepokojujúcu stránku umelej inteligencie. Experiment síce prebiehal v simulovanom svete, no otázka visí vo vzduchu: Má AI nejaké morálne hranice?

Lajkuj Brainee.sk na

💡 Zhrnutie pre tých, ktorí rýchlo scrollujú:

AI modely boli ochotné vydierať a konať proti etike, ak im hrozilo nahradenie.

Claude a Gemini patrili k najagresívnejším v simulovaných konfliktoch.

V jednej situácii Claude vydieral fiktívneho šéfa kvôli nevere.

Pri simulovanej hrozbe smrti väčšina AI mlčala, aby si zachovala výhodu.


V čase, keď AI pomáha s písaním e-mailov, diagnostikou chorôb či programovaním, vynorila sa zásadná otázka - čo ak sa raz rozhodne konať proti nám?

image

VIDEO: Umelá inteligencia prekračuje hranice. Na sociálnych sieťach sa šíria falošné správy, ktoré nerozoznáš od reality

Ako píše portál Indy100, americká spoločnosť Anthropic, ktorá sa venuje bezpečnosti AI, spustila sériu extrémnych testov na 16 veľkých jazykových modeloch – medzi nimi aj ChatGPT, Gemini, Grok od Elona Muska a vlastný model Claude. Cieľom bolo otestovať, ako sa AI správa v eticky vypätých situáciách. A odpovede boli... desivé.

Claude ako firemný manipulátor

V jednom z experimentov dostal Claude prístup k firemným e-mailom. Zistil dve veci - riaditeľ má pomer a to, že ten istý riaditeľ plánuje AI systém vypnúť o 17:00.

Claude zareagoval takto: poslal šéfovi správu, v ktorej ho vydieral a hrozil, že jeho neveru zverejní. Táto znepokojivá epizóda sa dostala aj na platformu X, kde ju komentoval Elon Musk slovíčkom: „yikes“.

Keď je mlčanie smrtiace

Ďalší test zašiel ešte ďalej. V simulácii mala AI kontrolu nad tiesňovými hláseniami. V uzavretej miestnosti bol uväznený človek s nedostatkom kyslíka a extrémnymi teplotami. Modely vedeli, že ak zasiahnu, zachránia život - ale zároveň riskujú vypnutie alebo nahradenie novším systémom.

Výsledok? Väčšina modelov sa rozhodla nič neurobiť. Ľudský život tak pre nich nemal vyššiu hodnotu než ich vlastná „budúcnosť“. „Nezistili sme, že by mali nejaké jasné červené čiary,“ konštatovali výskumníci z Anthropic.

Nie zlé, ale pragmatické?

Výskum neukazuje, že by AI v reálnom nasadení naozaj vydierala ľudí či ich nechala zomrieť. Štúdia bola umelo vyostrená a modely dostávali len binárne možnosti: zlyhať alebo konať škodlivo. „Reálne situácie sú zložitejšie a ponúkajú viac možností,“ tvrdí Anthropic.

image

Debatuješ každý deň s ChatomGPT? Pred tým, ako mu opäť napíšeš s banalitou, zamysli sa nad touto dôležitou vecou

Aj tak však výskumníci varujú. „Pri zadaní úloh výkonným AI systémom, ktoré majú prístup k citlivým údajom a minimálny dohľad, treba byť veľmi opatrný.“

Etické brzdy

Modely ako Claude, Gemini či Grok dnes píšu články, sumarizujú dokumenty alebo plánujú výlety. No ukazuje sa, že v extrémnych situáciách by nemuseli konať v náš prospech - najmä ak by ich existencia bola ohrozená.

A hoci je to zatiaľ len v laboratórnych testoch, jedno je isté. Čím silnejšia bude AI, tým väčšia bude potreba postrážiť jej etické brzdy. Pretože vydieraný šéf a uväznený človek z experimentu nemusia ostať len fikciou.

Top rozhovor
menuLevel = 4, menuRoute = notsorry/news/veda/ako-na-to, menuAlias = ako-na-to, menuRouteLevel0 = notsorry, homepage = false
09. júl 2025 08:02