
Behaviorální psycholog Gerd Gigerenzer strávil desítky let studiem lidských rozhodovacích procesů. Proč si myslí, že příliš mnoho z nás za sebe nyní nechává rozhodovat umělou inteligenci? Rozhovor pro deník Wall Street Journal vedl Danny Lewis.
V době ChatGPT se počítačové algoritmy a umělá inteligence stále více zapojují do našich životů, vybírají obsah, který se nám zobrazuje online, navrhují hudbu, kterou posloucháme, a odpovídají na všechny naše otázky.
Podle psychologa a behaviorálního vědce Gerda Gigerenzera, ředitele Hardingova centra pro rizikovou gramotnost na Postupimské univerzitě v Německu, mohou tyto algoritmy měnit náš svět a chování způsobem, kterému ještě plně nerozumíme. Gigerenzer byl dříve ředitelem Centra pro adaptivní chování a poznávání na Institutu Maxe Plancka pro lidský rozvoj a po desetiletí prováděl výzkum, který pomohl utvářet představu o tom, jak se lidé v nejistých situacích rozhodují.
Generace alfa nám ukazuje, jak zastaralé jsou naše učební koncepty
Ve své nejnovější knize „How to Stay Smart in a Smart World“ (Jak zůstat chytrý v chytrém světě) se Dr. Gigerenzer zabývá tím, jak algoritmy utvářejí naši budoucnost – a proč je důležité si uvědomit, že nejsou lidmi. Pro deník Wall Street Journal s ním hovořil Danny Lewis v rámci podcastu The Future of Everything (Budoucnost všeho).
WSJ: V dnešní době se často skloňuje pojem „algoritmus„. O čem mluvíme, když hovoříme o algoritmech?
Gerd Gigerenzer: Je to velká věc, proto je důležité si definovat, o čem mluvíme. Jedním z poznatků mého výzkumu na Institutu Maxe Plancka je, že pokud máte situaci, která je stabilní a dobře definovatelná, pak jsou složité algoritmy, jako jsou hluboké neuronové sítě, určitě lepší než lidský výkon. Příkladem jsou hry jako šachy a go, které jsou stabilní. Pokud ale máte problém, který není stabilní – například chcete předpovědět virus, jako je např. koronavirus – pak dejte od složitých algoritmů ruce pryč. Vypořádání se s nejistotou – to je spíše způsob, jakým funguje lépe lidská mysl – tj. identifikovat jeden nebo dva důležité náznaky a ignorovat zbytek. V tomto typu špatně definovaného problému složité algoritmy selhávají. Říkám tomu „princip stabilního světa“ a pomůže vám to jako první vodítko k tomu, co umělá inteligence dokáže. Říká vám také, že abychom z AI vytěžili co nejvíce, musíme svět učinit předvídatelnějším.
WSJ: Jsou tedy algoritmy po všech těch desetiletích informatiky nakonec opravdu jen kalkulačky, které počítají stále složitější rovnice?
Gigerenzer: Co jiného by měly být? Hluboké neuronové sítě mají mnoho a mnoho vrstev, ale stále jsou to počítací stroje. S pomocí videotechnologie toho dokážou mnohem více než kdykoli předtím. Umí malovat, umí konstruovat text. Ale to neznamená, že rozumí textu v tom smyslu, v jakém mu rozumí lidé.
WSJ: Pomáhá lidem pochopení toho, jak se tyto algoritmy rozhodují?
Gigerenzer: Transparentnost je nesmírně důležitá a domnívám se, že by měla být lidským právem. Pokud je něco transparentní, můžeme to upravit a začít znovu přemýšlet sami za sebe, místo abychom se spoléhali na algoritmus, který není lepší než parta špatně placených pracovníků. Takže musíme identifikovat situace, kdy je lidský úsudek potřebný a je vlastně lepší. A také musíme dávat pozor, abychom se nedostali do situace, kdy technologické společnosti prodávají algoritmy typu černých skříněk, které pak budou určovat části našich životů. Jde o všechno, včetně našeho sociálního a politického chování, a lidé by ztratili kontrolu ve prospěch vlád a technologických společností.
WSJ: Píšete, že „digitální technologie mohou snadno vychýlit misky vah směrem k autokratickým systémům“. Proč to říkáte? A jak se liší od minulých informačních technologií?
Gigerenzer: Tento druh nebezpečí tu skutečně je. Mezi všemi výhodami, které přináší, je jednou z nectností náchylnost ke sledování ze strany vlád a technologických společností. Lidé už ale nečtou zásady ochrany osobních údajů, takže o nich nevědí. A zásady ochrany osobních údajů jsou také nastaveny tak, že je ve skutečnosti nelze číst. Jsou příliš dlouhé a složité. Musíme získat zpět kontrolu.
Pryč z kapitalismu totálního dohledu
WSJ: Jak se tedy máme k něčemu jako je umělá inteligence postavit?
Gigerenzer: Představte si na kavárnu ve svém rodném městě, kde se podává káva zdarma. Všichni tam chodí, protože je zdarma, a všechny ostatní kavárny zkrachují. Takže už nemáte na výběr, ale alespoň si dáte kávu zdarma a užijete si konverzaci s přáteli. Jenže na stolech jsou mikrofony a na stěnách videokamery, které zaznamenávají všechno, co říkáte, každé slovo včetně toho, komu ho říkáte, a vše posílají k analýze. Kavárna je plná prodejců, kteří vás neustále vyrušují a nabízejí vám personalizované produkty. Zhruba v takové situaci se nacházíme, když jsme na Facebooku, Instagramu nebo jiných platformách. (Meta Platforms Inc., mateřská společnost Facebooku a Instagramu, se k tomu odmítla vyjádřit). V této kavárně nejste zákazníkem. Jste produktem. Chceme tedy mít kavárnu, kde opět můžeme platit, abychom zase byli jenom zákazníky.
WSJ: Infrastruktura personalizovaných reklam se stala součástí infrastruktury internetu. A zdá se, že by bylo potřeba provést docela vážné zásahy, aby zmizela. Když budete realistický, kam si myslíte, že budeme směřovat v příštích zhruba deseti letech, co se týče technologií, umělé inteligence a dohledu?
Gigerenzer: Obecně chovám naději, že si lidé uvědomí, že není dobrý nápad předávat svá data a odpovědnost za vlastní rozhodnutí technologickým společnostem, které je využívají k vydělávání peněz od inzerentů. To nemůže být naše budoucnost. Všude jinde platíme svými vlastními penězi, a proto jsme zákazníky a zachováváme si kontrolu. Existuje opravdové nebezpečí, že stále více lidí opomíjí sledování a přijímá prostě vše, co je pohodlnější.
Richard Baldwin: „Každý průměrný člověk bude daleko chytřejší“
WSJ: Ale zní to těžce, když je všechno tak pohodlné. Např. číst zásady ochrany osobních údajů a zkoumat algoritmy, které ovlivňují můj život. Jak se proti tomu mám bránit?
Gigerenzer: Nejpohodlnější věcí je nepřemýšlet. A jedinou alternativou je začít myslet. Nejdůležitější technologií, kterou je třeba si uvědomit je mechanismus, který psychologové nazývají „přerušované posilování“ (intermittent reinforcement). Dostane se vám posílení, například „To se mi líbí“, ale nikdy nevíte, kdy ho dostanete. Lidé se na platformu neustále vracejí a kontrolují, zda nedostali „Lajk“. To skutečně změnilo mentalitu a učinilo lidi závislými. Myslím, že je velmi důležité, aby každý tyto mechanismy pochopil a také si uvědomil, jak se člověk stává závislým. Abyste mohli získat kontrolu zpět, pokud ji chcete.
Gerd Gigerenzer, ročník 1947, je německý psycholog a emeritní ředitel oddělení Adaptivního chování a kognice na Institutu Maxe Plancka pro výzkum vzdělání v Berlíně. Psychologii vystudoval na Univerzitě Ludwiga Maximiliana v Mnichově, jako profesor následně přednášel na univerzitách v Kostnici, Salzburgu a v Chicagu. Působil také jako ředitel Institutu Maxe Plancka pro výzkum chování v Mnichově. Od r. 2009 je ředitelem Hardingova centra pro kompetenci rizik. V centru Gigerenzerova vědeckého zájmu leží otázka, jak se lépe a racionálně rozhodovat v situacích, kdy máme pouze omezený čas a informace a budoucnost je nejistá. Široké veřejnosti je znám svou knihou Bauchentscheidungen (Pocitová rozhodnutí), která byla přeložena do 17 jazyků. Patří mezi podporovatele Charty digitálních základních práv EU, která byla zveřejněna koncem listopadu 2016.