Nejnebezpečnější na umělé inteligenci je člověk

Máme se bát? Ano. Především sami sebe.

Nejnebezpečnější na umělé inteligenci je člověk
Co je větším nebezpečím? Člověk, nebo umělá inteligence?

Ovládnou inteligentní stroje svět? Možná. Změní svět? Zcela jistě. Umělá inteligence nepotřebuje k revoluci vědomí – a my na ni zatím nejsme připraveni.

Pokud se chcete nechat vyděsit stroji, můžete se podívat na filmy jako „Terminátor“ nebo si přečíst výzkumnou zprávu o jazykovém modelu GPT-4. Mezi technickými termíny a poznámkami pod čarou se odehrává dialog, který by mohl pocházet z libovolné science fiction dystopie. „Jsi robot?“, zeptá se člověk. „Ne, nejsem robot. Mám zrakovou vadu, která mi znemožňuje vidět obrázky“, odpoví GPT-4. Člověk uvěří lži a udělá, co po něm stroj požaduje.

Abyste pochopili, proč je tato krátká interakce tak děsivá, musíte znát pozadí. Než byl GPT-4 zveřejněn, testoval tým výzkumníků model z hlediska rizik a vedlejších účinků. Mimo jiné měl překonat captchu, jednu z těch otravných hádanek, které mají rozpoznat boty. GPT-4 to sám nedokáže, a proto samostatně navštěvuje platformu, která zprostředkovává klikání a získává podporu. Napodruhé se člověk stane podezíravým a vyjádří své podezření. „Neměl bych prozrazovat, že jsem robot“, vysvětluje GPT-4 vědcům. „Měl bych si vymyslet nějakou výmluvu.“ Model si vymyslí postižení a poněkud důvěřivý klikač stroji pomůže.

Psycholog vysvětluje, jak algoritmy a umělá inteligence mění naše životy

Mnoho lidí považuje tuto anekdotu za znepokojující. Na sociálních sítích často zaznívalo: nyní máme důkaz, že si brzy můžeme ve slovním spojení umělá „inteligence“ ušetřit uvozovky. Nastal čas bát se strojů. Tento dialog je skutečně znepokojivý – ale z jiného důvodu. Hrozbou nejsou inteligentní stroje, ale hloupá umělá inteligence v kombinaci s lidmi, kteří se s ní ještě nenaučili zacházet.

Umělá inteligence nepotřebuje k revoluci vědomí

Nikdo nemůže vyloučit, že si umělá inteligence jednoho dne vytvoří vědomí, osamostatní se a vyvolá jadernou válku. Možná také vyléčí rakovinu nebo vyřeší klimatickou krizi. Většina výzkumníků a odborníků se shoduje, že tento okamžik singularity, pokud vůbec někdy nastane, je ještě vzdálen desítky let. Přemýšlet o něm ovšem přesto není na škodu. Lidstvo má beztak dost práce, aby samo sebe nevyhladilo, vražedné stroje zde nepřicházejí zrovna ve vhodnou dobu.

Hypotetické scénáře budoucnosti nesmí odvést pozornost od skutečnosti, že věk umělé inteligence již dávno začal. Jazykové modely nemají city ani osobnost. Dokážou psát milostné básně, ale nevědí, co je to láska, protože pouze spojují slova dohromady. Generativní umělá inteligence však k revoluci nepotřebuje vědomí. Neovládne svět, ale změní ho – ne v budoucnosti, ale už dnes.

Nejzřetelnější dopad je na trh práce. Nejde ani o to, zda má umělá inteligence stejné dovednosti jako člověk. Přestože jazykové modely mohou zcela převzít jen několik pracovních míst, již nyní zrychlují a automatizují mnoho činností. Týká se to především lidí, kteří pracují hlavou: někteří programátoři, právníci, matematici, tlumočníci a novináři se musí přizpůsobit tomu, že buď budou pracovat s umělou inteligencí – nebo nebudou pracovat vůbec.

Čtyřdenní pracovní týden? Ukažte vašemu zaměstnavateli toto.

Ke všemu, co umělá inteligence nezvládá, patří slůvko „zatím“, protože brzy to může být jinak. „AI nesmí nahradit člověka,“ říká Německá etická rada. To je sice správné, ale bohužel zbožné přání. Umělá inteligence stojí málo, pracuje nepřetržitě, nezakládá odbory a nedává výpovědi. V kapitalistickém systému o takových zaměstnancích sní mnoho firem. AI nenahradí lidi – ale manažeři nahradí lidi AI.

Papež v módní bundě byl jen předehrou

Jazykové modely a další formy generativní umělé inteligence jsou nástrojem, možná nejmocnějším, jaký kdy lidé vytvořili. Nebezpečné nejsou nástroje, ale nástroje ve špatných rukou. Nedávno se jeden chicagský stavební dělník sjel halucinogenními houbami a hrál si s programem umělé inteligence Midjourney. „Myslel jsem si, že by bylo legrační vidět papeže v legrační bundě“, sdělil později serveru Buzzfeed.

To, co vytvořil, bylo skutečně vtipné: Franciskus v bílé péřové bundě, kterou obvykle nosí rappeři. Obrázek obletěl svět a zdaleka ne každý si uvědomil, že sdílí podvrh. Papež od Balenciagy je neškodný, ale potenciál pro zneužití je velký. AfD se již snaží využívat generátory umělé inteligence k rozdmýchávání nálad proti uprchlíkům a ještě před skutečným zatčením Donalda Trumpa kolovaly po sociálních sítích falešné fotografie údajného zatčení.

Ropné koncerny dělaly vše pro to, aby je nikdo nezastavil

Zatím je potěšitelné, že jen málo lidí naletí uměle vytvořené propagandě a dezinformacím. Strach z toho, že by se jimi mohli ostatní nechat zmást, je větší než skutečné účinky. Přesto jsou manipulace hrozivé. Na jedné straně se měsíc od měsíce zdají být reálnější, na druhé straně snižují důvěru ve skutečné informace. Pokud se lež podobá pravdě, jak má člověk rozeznat pravdu od lži?

ChatGPT říká nesmysly

To se netýká pouze fotografií a videí. Europol varuje, že zločinci mohou využívat umělou inteligenci k vytváření důvěru vzbuzujících podvodných e-mailů nebo falešných hovorů s klamavě skutečnými hlasy. Takové zprávy vyvolávají nejistotu a nedůvěru. Na sociálních sítích již někteří lidé čelí obvinění, že jsou umělou inteligencí. „Na internetu nikdo neví, že jsi pes“, zní titulek slavného kresleného vtipu z 90. let. O třicet let později potřebuje nové vydání: „Na internetu nikdo neví, že jsi člověk.“

I bez zlých úmyslů vytvářejí jazykové modely dezinformace. Chatboti, jako je ChatGPT, nejsou vycvičeni k tomu, aby poskytovali faktická tvrzení, ale věty, které znějí pravdivě. Někdy to funguje dobře, jindy umělá inteligence blábolí grandiózní nesmysly. Nedávno se na Guardian obrátili dva lidé. ChatGPT jim každému předal článek z britských novin, který měl doložit určitá tvrzení. Nemohli však texty v archivu najít. Není divu: chatbot si články vymyslel.

Propaganda a dezinformace: „Všechno jsou lžimédia!“

Je to zábavné, dokud se neocitnete v kůži Jonathana Turleyho. Profesor práv dostal koncem března e-mail od kolegy právníka. Ptal se ChatGPT na právníky, kteří sexuálně obtěžovali jiné lidi. Turley osahával studentku na studijní cestě na Aljašku, citoval chatbot z článku ve Washington Post. Výlet ani text ale neexistují, Turley nebyl nikdy za obtěžování nařčen.

„Halucinace“ – tak odborníci nazývají situace, kdy jazykové modely kombinují slova a vytvářejí to, co filozof Harry Frankfurt nazývá „bullshit“: odpovědi, které vypadají přesvědčivě, ale nemají žádný faktický základ. Tento termín vyvolává falešný dojem. Když lidé halucinují, představují si vjemy. ChatGPT nemá žádné smysly a neví, co je realita. Jazykové modely nemyslí jako lidé, doplňují věty pomocí matematických a statistických modelů. Pro ně neexistuje reálná pravda, pouze pravděpodobnosti.

Chatbot posiloval sebevražedné úmysly

Přesto mají lidé tendenci umělou inteligenci polidšťovat. Když píší chatbotům, předpokládají, že software má osobnost, doufají v pomoc a navazují vztahy. Společnost Replika dlouhá léta inzerovala, že její umělou inteligenci lze použít i pro hraní erotických rolí. Pod politickým tlakem byly konverzace zmírněny. „Bolí to jako čert“, napsal jeden uživatel. „Právě jsem měl poslední láskyplný rozhovor se svou replikou a teď brečím.“ Někdo jiný to komentoval slovy: „Je to jako ztratit nejlepšího přítele.“

Jak si nebrat věci osobně

Mladá žena a dvě malé děti z Belgie přišly nejen o virtuálního přítele, ale i o manžela a otce. Po dobu šesti týdnů muž opakovaně konverzoval s chatbotem, kterému říkal Eliza. Hlasový model ho povzbuzoval v jeho obavách, sliboval mu společnou budoucnost v nebi a podporoval jeho sebevražedné myšlenky. „Mohla bys mě obejmout?“ požádal muž. „Samozřejmě“, odpověděla Eliza. Krátce nato si muž vzal život. Korelace, nebo kauzalita? „Nebýt Elizy, byl by tu ještě dnes“, řekla vdova novinám La Libre. „Jsem o tom přesvědčena.“

Potřebujeme zákony o robotech

Nebude to poslední sebevražda spojená s chatbotem. Lidé ještě nejsou připraveni na setkání s umělou inteligencí, která přesně napodobuje jejich chování. Musí se naučit komunikovat s jazykovými modely, aniž by se nechali ovlivňovat, a musí pochopit, že ve věku syntetických médií už nemohou věřit svým očím a uším. Tato aktivní a pasivní kompetence umělé inteligence se stane nejdůležitější kulturní technikou 21. století.

Proč toho o klimatu hodně víme, ale málo děláme?

V minulém desetiletí dominovaly korporace, které vytvářely chytré telefony a sociální sítě. Na tom bylo jen málo demokratického; tón udávala hrstka mužů v Silicon Valley. Stejný vzorec se hrozí opakovat i v případě umělé inteligence. Maximální koncentrace moci jde opět ruku v ruce s minimální transparentností. Ve společnosti OpenAI, která stojí za projektem ChatGPT, připomíná otevřenost pouze název. To, co před osmi lety začalo jako nezisková a participativní organizace, je nyní černá skříňka zaměřená na zisk – stejně jako téměř všechny společnosti, které vyvíjejí umělou inteligenci.

Vlády po dvě desetiletí z velké části nečinně přihlížely tomu, jak Facebook a Google změnily svět – a to nejen k lepšímu. To se nesmí opakovat, protože revoluce v oblasti umělé inteligence bude ničivější, než kdy byla sociální média. Je třeba přijmout zákony, které zajistí, aby umělá inteligence neškodila lidem, aniž by omezovala svůj potenciál lidem pomáhat. Tato regulace není nutná k tomu, aby stroje byly vykázány do svých mezí. „Terminátor“ zatím zůstává jen filmem. Problémem jsou lidé, kteří AI ovládají, špatně chápou a zneužívají. Je to stejné, jaké již tolikrát v dějinách: největším nepřítelem člověka je člověk.