Plíživá nadvláda algoritmů

Algoritmy začínají rozhodovat o našich osudech. Pokud má jejich používání vést k pokroku, musíme je posuzovat kriticky.

Slovo algoritmus bylo pro většinu z nás donedávna součástí hantýrky informatiků a bylo třeba mu věnovat v běžném životě asi tolik pozornosti jako pojmům z geologie nebo lingvistiky – totiž v podstatě žádnou. Dnes je to jinak: německá verze Google News (služby umožňující prohledávat internetová média) nabízí při vyhledávání slova algoritmus na zpravodajských stránkách skoro padesát tisíc výsledků – nadpisy článků jsou namátkou tyto: „Algoritmus pozná vylhané e-maily“, „Transparentnost: algoritmus Amazonu je pro zákazníky matoucí“ nebo „Tipy pro psaní motivačního dopisu: takhle přelstíte algoritmus“. Dobře to dokládá, jakou roli začaly algoritmy najednou hrát v našich každodenních životech.

Algoritmy nemají hlad

Zjednodušeně řečeno jsou algoritmy zadáním pro činnost počítačových programů, diktují jim jaké kroky a v jaké posloupnosti mají učinit. Jako takové tedy nejsou ničím novým (první algoritmus k programování předchůdce dnešních počítačů vznikl již v 19. století). Spolu s tím, jak se naše životy přesunují do digitálního prostoru a zanechávají po sobě hromady digitálních informací (tzv. big data), které lze analyzovat, se ovšem algoritmům otevírá nové pole působnosti. A protože jsou z těchto analýz čím dál častěji vyvozovány důsledky pro náš digitální, ale i reálný život, problematika algoritmů se nás všech začíná bezprostředně dotýkat.

Čím rozšířenější je algoritmická analýza dat, tím více je potřeba přemýšlet o jejích úskalích.

Algoritmy se dnes využívají například v personalistice. Odhaduje se, že přes 70 procent životopisů ve Spojených státech vůbec neprojde rukama živého personalisty – vyselektují je právě algoritmy. Algoritmy také rozhodují, co se nám zobrazuje na internetu, ať už jde o reklamu šitou na tělo uživateli nebo o ceny na Amazonu, které jsou prokazatelně za stejnou věc pro různé uživatele různě vysoké. Algoritmy většinou určují, zda a za jakých podmínek dostaneme půjčku nebo který pojišťovací tarif nám bude nabídnut. Ve Spojených státech zase používají algoritmy k předpovědi pravděpodobnosti recidivy u vězňů. To je jen několik příkladů za všechny.

Při analýze big data se algoritmy využívají hlavně kvůli objemu informací, s nimiž by se člověk buď vypořádal jen velmi obtížně, anebo by to v jeho silách nebylo vůbec. Zároveň mají eliminovat tzv. lidský faktor – je kupříkladu dokázáno, že soudci rozhodují přísněji, když mají hlad, nebo že personalisté nevybírají uchazeče o zaměstnání jen na základě kompetencí, ale spíše podle toho, kdo je jim samým nejpodobnější. A protože algoritmům hlad úsudek nezatemní, věříme v jejich objektivitu a racionalitu. Někteří pozorovatelé ale začínají tento předpoklad zpochybňovat. Často se totiž zapomíná, že i algoritmy někdo sestavil a že ani tento člověk nemá neutrální či objektivní náhled na svět. Způsob, jakým algoritmus sestaví, musí tedy zákonitě obsahovat zkreslení dané jeho subjektivním vnímáním reality nebo může reprodukovat stereotypy. Typickým příkladem je práce algoritmů s rádoby objektivními kritérii, jako je dosažené vzdělání či bydliště. Vypovídá formálně dosažený stupeň vzdělání skutečně něco o vhodnosti uchazeče nebo uchazečky na danou pozici? A nevylučujeme mechanickým rozřazením lidí podle těchto kategorií ty, kteří neměli stejné výchozí podmínky jako ostatní? Nereprodukujeme tak jejich znevýhodnění?

Rasismus strojů

Problém nastává i s výběrem dat, do nějž se může promítat specifické vidění světa, které se pak přenáší do výsledků analýzy. A konečně je třeba počítat s tím, že i samotná data obsahují zkreslení reality nebo sociální vzorce, na jejichž reprodukci nebo zesilování nemáme zájem. Marginalizované skupiny jsou například kvůli svému znevýhodnění obsaženy v datech méně nebo tak, jak to odpovídá jejich diskriminaci (například ženy méně často v rozhodovacích pozicích). Z toho by však algoritmy neměly slepě vyvozovat své předpovědi a doporučení ohledně budoucnosti nebo tímto směrem orientovat něčí chování.

Konkrétní příklady podobných potíží s algoritmy se začínají kupit – k humornějším z nich patří pokus uspořádat soutěž o „objektivně“ nejkrásnějšího člověka. Lidé byli vyzváni k zaslání svých fotografií, podle nichž měl algoritmus vybrat toho nejkrásnějšího. Fotky nicméně zaslalo daleko méně lidí s tmavou barvou pletí, a tak byli i daleko méně zastoupení mezi vítězi. Algoritmus si z jejich malého zastoupení ve vstupních datech odvodil, že jsou jejich vzhledové znaky spíše negativní odchylkou od obecně sdílené představy o kráse. O něco méně humorné je, když se ženám na internetu zobrazují méně inzeráty na obsazení vyšších pozic, protože si algoritmus z faktu, že jsou v takových pozicích méně zastoupeny, odvodí, že jim nejspíš nepřísluší o tato místa usilovat, čímž stávající nespravedlivé poměry dál reprodukují. K nejotřesnějším příkladům patří kritické zhodnocení výsledků algoritmické předpovědi pravděpodobnosti recidivy u amerických vězňů. Vyplývá z něj, že kriminálníci tmavé pleti mají dvakrát vyšší pravděpodobnost, že u nich bude riziko recidivy předpovězeno mylně, zatímco u vězňů bílé pleti je dvakrát častěji mylně předpovězena bezproblémovost.

Čím rozšířenější je algoritmická analýza dat, tím více je potřeba přemýšlet o jejích úskalích. Takovou reflexi ale komplikuje, že ne vždy se vůbec dozvíme, že byla algoritmická analýza v konkrétním případě provedena. Odmítnutí uchazeči o zaměstnání se nikdy nedozvědí, zda je neodmítl algoritmus na základě diskriminačních předpokladů. Přesná podoba algoritmů a dat, z nichž vycházejí, jsou u většiny programů a aplikací přísně střeženým obchodním tajemstvím, a je těžké je podrobit kritickému přezkoumání. Alespoň v případě jejich využití ve veřejných službách – jako u zmíněného algoritmu na predikci recidivy – bychom však měli na odkrytí algoritmického mechanismu a příslušných dat trvat.

Z celé věci se dá vyvodit ještě jeden závěr: především v české diskusi vyvolává rychlý technologický pokrok stále častější volání po technicky vzdělaných lidech. Společenské dopady nesprávného využití algoritmů jsou ovšem poměrně dobrým příkladem, proč bude v digitální éře možná více potřeba lidí humanitně vzdělaných, kteří budou na podobná společenská nebezpečí upozorňovat. Teprve správným směrem namířený technologický vývoj můžeme označovat za pokrok. Od lidí čistě technicky vzdělaných můžeme takové usměrnění očekávat jen těžko. Pro budoucnost bude zásadní úzká mezioborová spolupráce humanitních a technických oborů.

Autorka je politoložka.

 

Čtěte dále

Ochrana soukromí | Vaše údaje jsou u nás v bezpečí! OKZajímají mě cookies