Umělá inteligence je především politický problém

Zajistit, aby vývoj umělé inteligence neměl katastrofální společenské důsledky, zdaleka není jen technologická záležitost.

Vývoj na poli umělé inteligence akceleruje. Díky online aplikacím jako ChatGPT nebo MidJourney se tento vývoj nyní dostal i do širšího povědomí. V roce 2020, kdy jsem publikoval svůj článek o společenských hrozbách umělé inteligence, se většina lidí ještě na možnost plného nahrazení lidských pracujících roboty dívala skepticky. Dnes se většina expertů baví spíše o tom, jestli k tomu dojde už za pět, nebo až za dvacet let. Podobně jako v případě klimatické krize bychom i při posuzování rizik umělé inteligence měli brát na zřetel především pohled vědců. Odborníci, kteří se jejím vývojem zabývají, věnují velkou pozornost bezpečnosti inteligentních systémů. Ani oni však nemohou příliš ovlivnit to, jak tyto technologie lidé použijí.

Chytřejší než člověk

Tři lidé – Geoffrey Hinton, Yoshua Bengio a Yann LeCun – jsou dnes označováni za „otce“ moderní umělé inteligence, založené na hlubokých neurálních sítích. Za svou práci dostali v roce 2018 Turingovu cenu, přezdívanou „Nobelova cena za informatiku“. Asi nepřekvapí, že žádný z této trojice nepochybuje o tom, že umělá inteligence dříve či později překoná inteligenci lidskou, a bude tedy schopna nahradit člověka prakticky v jakékoliv činnosti. V čem se ale názory jmenovaných rozcházejí, je otázka, jaké důsledky bude mít takový vývoj pro lidstvo.

Hrozba umělé inteligence nespočívá ani tak v technologii samotné – nemusíme se bát Terminátora ani Matrixu. Hrozba spočívá v téměř neomezené moci těch, kteří budou umělou inteligenci kontrolovat.

Geoffrey Hinton se zalekl schopností posledních modelů umělé inteligence (jako GPT) natolik, že odešel z firmy Google, aby mohl otevřeně mluvit o potenciálních existenčních hrozbách. Yann LeCun nás naopak uklidňuje poukazováním na skutečnost, že umělá inteligence nemá žádnou vlastní motivaci získat dominanci nad lidstvem, protože nevznikla přirozeným výběrem, který u lidí a zvířat vyšlechtil touhu po moci. LeCun proto věří, že umělá inteligence se nechá dlouhodobě kontrolovat lidmi, i když bude výrazně inteligentnější. Říká, že umělá inteligence zůstane bezpečná, pokud bude pod demokratickou a mezinárodní kontrolou. Nebezpečná mu připadá pouze situace, kdy by kontrola nad umělou inteligencí byla v soukromých rukou nebo v rukou jednoho státu. Yoshua Bengio do této diskuze zasahuje méně, ale také v souvislosti s umělou inteligencí označil za nebezpečnou koncentraci moci v rukou technologických gigantů.

Možná ještě podstatnější mohou být názory mladých vědců, kteří stojí v popředí současného vývoje umělé inteligence. Mezi ně bezesporu patří Demis Hassabis, který vede Google Deepmind a který se podílel na přelomových programech AlphaFold, AlphaGoAlphaZero. Dalším zásadním mladým počítačovým vědcem je Ilya Sutskever, který vede výzkum v OpenAI, stojící za programy ChatGPT, GPT-4 a Dalle-3. Oba jmenovaní v časopise Guardian varovali před existenční hrozbou umělé inteligenci a vybízejí k větší státní regulaci v této oblasti. Ilya Sutskever svůj monolog uzavírá slovy: „Není pochyb, že umělá inteligence bude v následujícím století prosperovat, bylo by hezké, kdyby prosperovali i lidé.“ Demis Hassabis říká: „Svět musí brát rizika umělé inteligence stejně vážně jako klimatickou krizi a nemůže si dovolit otálet s reakcí.“

Situace připomíná diskuzi okolo klimatické krize také tím, že zatímco v obecné populaci existuje mnoho AI-skeptiků, kteří nevěří, že počítač může plně nahradit lidi, odborná komunita je v podstatě ve shodě, že je to pravděpodobně otázka nejbližších dekád. Stejně jako v případě klimatické krize se má smysl bavit o tom, jaké společenské změny je třeba realizovat, abychom se vypořádali s tímto problémem, a není čas diskutovat o tom, jestli daný problém vůbec existuje.

Konec idealismu

V listopadu 2023 zahýbala světem výpočetních technologií zpráva, že byl nečekaně odvolán CEO společnosti OpenAI Sam Altman. Představenstvo OpenAI, jehož členem je i Ilya Sutskever, Altmanovo náhlé odvolání opodstatnilo tím, že „komunikoval netransparentně“ a že ohrožoval deklarované poslání OpenAI. Pro pochopení kontextu je třeba říct, že OpenAI byla založena původně jako nezisková organizace právě s tím cílem, aby umělá inteligence nepadla do soukromých rukou, ale byla vyvíjena „v zájmu celého lidstva“. V roce 2017, kdy byla OpenAI založena, se totiž zdálo, že společnost Google má ve vývoji AI obrovský náskok. Ve stanovách organizace OpenAI se doslova píše, že vedení má primárně zodpovědnost vůči zájmům lidstva jako celku a až sekundárně vůči zájmům investorů nebo zaměstnanců. Postupně se však kvůli problémům s financováním dostala OpenAI pod značnou kontrolu firmy Microsoft, která do ní masivně investovala a poskytla jí výpočetní výkon cloudu Azure k trénování inteligentních modelů jako GPT a Dall-e. To vše s příslibem možnosti komerčně využívat vyvinutou technologii.

Překotné odvolání šéfa OpenAI zaskočilo dokonce i investory a zaměstnance. Tato zkratkovitá akce málem zničila nejprestižnější technologickou společnost současnosti, když víc než sedm set (přes 90 %) zaměstnanců hrozilo podat výpověď. Členka představenstva Helen Toner, která Altmanovo odvolání spoluiniciovala, se vyjádřila, že „zánik OpenAI by nakonec byl konzistentní s jeho misí“. Nikdo z představenstva přitom veřejnosti ani zaměstnancům nepodal jasné vysvětlení, čeho konkrétně se Sam Altman dopustil. Objevilo se proto mnoho hypotéz, co mohlo motivovat představenstvo k takto hystericky vyznívající akci.

Nejpopulárnější je teorie, že představenstvo bylo šokováno schopnostmi nějakého nového algoritmu a došlo ke sporům uvnitř vedení OpenAI, jak se k novým výsledkům postavit. Tyto teorie byly založené na útržkovitých informacích se značnou mírou spekulace. Nový algoritmus, který se má nazývat Q*, by prý měl být schopen nejen reprodukovat naučené vzorce, ale systematicky kreativně přemýšlet, což mu umožňuje např. řešit matematické problémy. Spekuluje se, že Q* má být kombinací velkých jazykových modelů typu GPT s algoritmem A* k prohledávání grafů. To by počítačům dovolilo při řešení problémů postupovat podobně jako vědci: navrhovat velké množství perspektivních hypotéz, ty následně podrobit kritice a vybral tu nejlepší. Podobným způsobem ostatně fungovaly i revoluční programy  AlphaFold, AlphaGo a AlphaZero, s tím rozdílem, že se omezovaly jen na úzkou aplikaci (AlphaFold se specializuje na hledání struktury proteinů, AlphaGo se specializoval na hru Go a AlphaZero na různé jiné hry). Naproti tomu od Q* se očekává, že bude integrován do budoucích modelů GPT, které mají za cíl dosáhnout univerzální umělé inteligence a za tím účelem jsou zásobeny veškerými dostupnými znalostmi lidstva. Vzhledem k tomu, že OpenAI žádné oficiální vysvětlení nepodalo, zakládají se tyto dohady pouze na neoficiálně uniklých útržkovitých informacích. Jisté je pouze to, že Sam Altman se vrátil do vedení OpenAI, že společnost radikálně změnila cíle deklarované na svých stránkách a nyní se plně zaměřuje na vývoj univerzální umělé inteligence.

Z uvedeného by se mohlo zdát, že se není čeho obávat, protože zodpovědní lidé řídící přední technologické společnosti zjevně mají na paměti nejlepší zájmy lidstva. Uklidňovat by nás mohlo i to, že mnozí lidé z vedení OpenAI vyznávají filozofii efektivního altruismu a zároveň považují umělou inteligenci za potenciální existenční riziko.

Ještě větší vliv má filozofie efektivního altruismu v konkurenční společnosti Anthropic, stojící za inteligentním chat-botem Cloude. Anthropic sestává z lidí, kteří odešli z OpenAI právě kvůli neshodám v oblasti bezpečnosti. Skutečnost, že právě lidé považující umělou inteligenci za existenční hrozbu, jsou zakladateli těchto společností, přitom není nijak paradoxní. Snaha dostat pod svou kontrolu klíčové technologieklíčové mocenské funkce je jednou z hlavních strategií, jimiž se tito „altruisté“ snaží být „efektivní“. Ostatně stejná úvaha (že přece nemůžeme nechat umělou inteligenci Googlu) byla původně hlavní motivací Elona Muska k tomu, aby vznik OpenAI inicioval.

Limity efektivního altruismu

I když strategie efektivního altruismu vypadá logicky, jako socialisty by nás mělo znepokojovat především to, že jejím vedlejším důsledkem je soustředění moci v soukromých rukou. Spoléhat se na altruistické přesvědčení klíčových soukromých aktérů se nezdá příliš bezpečné. Právě socialistické hnutí má ostatně negativní historickou zkušenost s tím, jak mohou dopadnout ušlechtilé úmysly, pokud dovolíme, aby v zájmu jejich prosazení byla soustředěna nekontrolovaná moc v rukou jednotlivců. Na rozdíl od umělé inteligence jsou lidé produkty darwinovské evoluce a touha po moci a sobecké zájmy jsou nám vlastní. Právě i zákulisní mocenské hry, které se v souvislosti s odvoláním Sama Altmana v OpenAI nedávno odehrály, nám připomínají, že není možné se spoléhat na lidské kvality, pokud se hraje o peníze a moc. Hrozba umělé inteligence totiž nespočívá ani tak v technologii samotné – nemusíme se bát Terminátora ani Matrixu. Hrozba spočívá v téměř neomezené moci těch, kteří budou umělou inteligenci kontrolovat. V českém prostředí tuto situaci výmluvně vykresluje scéna s Golemovým šémem z filmu Pekařův císař.

Jak už jsem psal ve zmiňovaném článku, jsem přesvědčen o tom, že pokud ještě před rozvojem umělé inteligence nezavedeme v celém západním světě solidní politický a ekonomický systém, ve kterém budou existovat účinné bariéry proti akumulaci bohatství a moci, bude nevyhnutelným důsledkem technologického vývoje vznik nového feudalismu, ve kterém budou o moc soutěžit miliardáři v čele plně automatizovaných továren a robotických armád. Na rozdíl od starého feudalismu ten nový nebude moci být ohrožen žádnou revolucí, protože moc vladaře nebude záležet na podpoře lidu, ale bude zajištěna bezpodmínečnou poslušností robotů. Naprosto nevěřím, že stávající podoba demokracie může přežít v situaci, kdy lidé nebudou schopni konkurovat robotům ani jako pracovníci, ani jako vojáci. Vždyť už dnes, jak varuje Janis Varufakis, jsou demokraticky kontrolované struktury státu postupně oslabovány a outsourcovány a těžiště moci se přesouvá k soukromým společnostem. Co nastane, až voliči nebudou mít co nabídnout ekonomice a všechny systémy státu včetně vojenských složek budou závislé na uměle inteligentních systémech pod kontrolou korporací?

Jenže co s tím můžeme dělat? Vždyť o zavedení lepšího politického a ekonomického systému, který by reprezentoval zájmy všech lidí a nebyl zneužitelný mocnými, usilujeme už po staletí. Je vůbec nějaká šance, že by se nám mohlo podařit vytvořit takový politický a ekonomický systém v horizontu nanejvýš několika příštích desetiletí, tedy ještě před tím, než umělá inteligence plně nahradí lidi v ekonomice i vojenství? Osobně jsem k tomu velice skeptický. Na druhou stranu je nutné se o to alespoň pokusit. Možná urgence této hrozby dokáže motivovat lidi napříč společenskými třídami, aby zabránili nevratné koncentraci moci v rukou oligarchie. Podobně jako v případě levicových environmentálních hnutí také zde můžeme doufat, že vedlejším produktem odvrácení existenční hrozby bude spravedlivější společnost.

Lidé dnes pořádají demonstrace a generální stávky kvůli očkování, cenám energií, valorizaci důchodů a platů, blokují silnice a lepí se na výlohy obchodů kvůli hrozbě, že se za sto let zhroutí ekosystém. Je pro mě naprosto nepochopitelné, proč lidé stejný zájem nevěnují vývoji na poli umělé inteligence, která představuje hrozbu mnohem závažnější a zároveň mnohem bližší. Jestliže v horizontu desetiletí nedokážeme opravit náš politický a ekonomický systém tak, abychom mu mohli důvěřovat, že bude využívat umělou inteligenci v našem zájmu, pak už možná k žádné další stávce nebude příležitost a důchodem se taky nemusíme trápit. Technologický vývoj na poli umělé inteligence nemůže být zastaven. Je třeba vytvořit politické a společenské struktury schopné ho akomodovat v zájmu lidstva.

Autor je teoretický fyzik.

Čtěte dále