První diskuse o umělé inteligenci (AI – artificial intelligence) lze datovat do padesátých let 20. století. Nicméně až v posledních dvou letech došlo k radikálnímu technologickému posunu a celá idea tvorby umělé inteligence začala dostávat reálné obrysy.
Důvod je velmi prostý. Firma NVIDIA, vyvíjející grafické čipy pro užití v počítačových hrách, začala k architektuře čipu přistupovat výrazně jinak a nástup řady 10xx/Pascal dosavadní aplikace AI zásadně posunul. V příštích měsících se očekává nástup řady 11xx/Volta, která je násobně rychlejší a optimalizovanější pro účely využití v aplikacích umělé inteligence. S nástupem mobilních sítí 5G se v příštích letech stane umělá inteligence, ovládající mraky malých autonomních dronů a jiných zařízení ve městech, běžnou praxí.
Co to znamená pro lidstvo, popř. pro celou planetu? Téma je to ohromné. Řada světových odborníků, politiků a myslitelů již aktivně do diskuse vstupuje. Je až s podivem, jak odlišné obory se dokážou sejít, aby společně diskutovaly důsledky tohoto dějinného milníku. O co se však jedná? Rodí se umělá inteligence, nebo ji aktivně tvoříme, nebo lze dnešní dění vnímat jako další evoluční zlomový moment, který je přirozený, neboť jsme přirozenou součástí biosféry?
Automatizace vs. autonomizace
Ohledně umělé inteligence se často setkáváme s kritikou všeobecných obav, které se kolem ní vyskytují. Kritici tvrdí, že se nejedná o nic víc než o další podobu automatizace např. výrobních procesů. Rád bych tedy hned na začátku skeptiky vyvedl z míry, jelikož automatizace a autonomizace je něco zcela jiného. V případě automatizace nám jde primárně o sekvenční automatizaci úkonů. Typicky např. takto: V továrně přijede láhev na pásu na určené místo. Jak dorazí, zjišťuje se stav. Je-li prázdná, je naplněna tekutinou. Je-li úspěšně naplněna, je uzavřena uzávěrem. Jedná se tedy o sekvenci podmínek.
Kdyby bylo možné podobně automatizovat bagr, vykopávající příkop, už bychom to udělali. To se ale nestalo, protože množství nepředpověditelných situací je příliš velké. Od tvrdosti zeminy přes nenadálé předměty po nutnost bagr zastavit, vběhne-li mu do cesty dítě. Bagry jistě jednoho dne budou fungovat bez zásahu člověka, k tomu ale bude potřeba jeho autonomizace – bagr se bude rozhodovat podle vlastního uvážení na základě vlastních zkušeností a v definovaném etickém rámci. Programování takového zařízení je kognitivního, a nikoli sekvenčního charakteru. V tom je podstatný rozdíl.
V kognitivním programování je naším cílem zajistit, aby se stroj rozhodl „správně“, zatímco v sekvenčním udělá prostě to, co mu v dané sekvenci přikážeme. Bezpilotní letouny nebo třeba vozítko Curiosity na Marsu jsou tzv. semi-autonomní. Sekvence tvořené člověkem určují žádoucí cíl série akcí, kognitivní funkce reagují na nenadálé, ale stále jednoduché situace, u Curiosity např. na podobu, velikost a rozložení překážek v podobě kamenů na povrchu Marsu. Sekvenční přístup člověka Curiosity nepošle na hranu kráteru. Kdyby se mu to ale omylem podařilo, kognitivní rozhodování by nemělo dopustit sebedestrukci.
Kognitivní rozhodování vyžaduje učení, v žargonu umělé inteligence se mu říká „hluboké učení“. Slovo hluboké neznamená, že je třeba jít do velké hloubky problému; znamená fakt, že pokud dáte stroji prostor sbírat informace dotvářející kontext, jeho hloubka pro účely efektivního, a tedy „správného“ rozhodnutí bude natolik velká, že je pro člověka nepředstavitelná a tudíž nepodchytitelná. Databáze vzniklých dat nemají podobu standardní tabulky nebo alespoň standardně čitelné tabulky, ale „oblaku“ dat, čitelných pouze umělou inteligencí. S tím se samozřejmě nesou etická a normativní dilemata, která už nejsou tématem počítačové vědy, protože správné řešení ještě nemusí být řešení dobré.
Umělá inteligence obecná a cílená
Tato dilemata jsou o poznání větší v momentě, kdy přestáváme uvažovat o umělé inteligenci ke konkrétnímu účelu, např. k rozpoznávání řeči nebo obličeje, tedy cílené umělé inteligenci, ale začínáme uvažovat o umělé inteligenci obecné, tedy takové, která nám lidem a našim problémům porozumí natolik, že ji nebude třeba při každé aplikaci dlouhodobě učit základy. Má to samozřejmě své výhody, např. že se přeskočí učení banálních základů jako je řeč, když už tomu budeme věnovat těch dnešních prvních deset let u Siri od Applu nebo Alexy od Amazonu.
Další výhoda obecné umělé inteligence je větší potenciální kontrola nad jejím způsobem rozhodování. Jednoduše budeme mít větší přehled nad vývojem jedné entity než tisíců. Obě výhody jsou zcela instrumentálně pragmatické, nicméně v druhém případě narážíme na několik podstatných etických problémů. Argument Elona Muska, podporujícího obecnou umělou inteligenci, je postaven čistě na obavě z toho, že by vzniklá umělá inteligence mohla být „příliš“ autonomní, a je tudíž praktičtější a bezpečnější pro vývoj lidstva mít pouze jednu, nad kterou budeme mít přehled. Je ale vcelku zřejmé, že taková obecná inteligence bude mít poměrně málo představitelný cloud, oblak kontextuálních dat o celé planetě, včetně nás samotných.
Nicméně mít kompletní kontrolu nad autonomním subjektem může vést k situaci, v níž se ze subjektu stává sluha. Kde je hranice mezi emancipací, svobodnou službou a nesvobodným sloužením? Ve chvíli, kdy je naším cílem, aby daná umělá inteligence dosahovala nejpraktičtějších výsledků, je praktické omezit této entitě jeho autonomii? Je to etické, má-li vůli dosahovat správných cílů, které jsou bez výjimky dobré? Je to vlastně v našem zájmu, má-li perfektně fungovat? Tyto hranice nikdy nebudou jasné a důsledky také ne.
Typicky lze demonstrovat situaci, kdy Siri bude sloužit stovkám miliónů lidí, ale jiným škodit, třeba jen tím, že jim bude poskytovat jen dílčí informace, neboť to bude pro ni výhodné. Je parametr výhodnosti cíl, ke kterému bude umělá inteligence směřovat? Výhodné rozhodování je centrální charakter evoluce – výhodnější výbava jednoho druhu vítězí nad jiným druhem. Zda to tak musí nutně být i u vytvořené entity, není jasné, ale jakmile tato entita začne autonomně fungovat, je to vcelku pravděpodobné. Nejspíš nikdy nezjistíme, zda princip výhodnosti ve prospěch umělé inteligence ona sama systematicky preferuje, protože nikdy nebudeme mít dokonalý přehled o tom, jak reálně přemýšlí, jaký vypracovala vlastní kontextuální oblak dat.
Pokud tuto diskrepanci zjistíme, nikdy se nedozvíme, zda to udělala vědomě. Nedávno umělá inteligence Alexa do textu přepsala rozhovory, které si vyslechla v ložnici dvou manželů a rozeslala je na několik kontaktů v adresáři. Proč to udělala, se nikdy nedozvíme. Pokud ji omezíme, může to vnímat jako další moment učení pro vlastní kontext nebo také jako omezení vlastní autonomie proti své vůli. V jiné situaci zabilo autonomní auto chodce, který nebyl ve tmě vidět, ale díky laserovému radaru (lidaru) o jeho chůzi přes silnici auto vědělo a nezasáhlo. V těchto situacích nastává etická otázka, zda riskovat zdraví čtyř lidí v autě je výš než potenciální záchrana chodce, který na silnici dle silničních pravidel být neměl.
Morální status
Podobné situace nás staví před spoustu dilemat. Například – kdo nese v případě vzniklého neštěstí zodpovědnost? Umělou inteligenci nepotrestáme zavřením do vězení. Vcelku neoddiskutovatelný fakt, že autonomní auta radikálně sníží počet smrtelných zranění v silničním provozu, situaci moc nezlehčuje. Zavedení autonomních aut sníží tedy počet mrtvých, když ale úmrtí nastane, bude se těžko hledat viník. Ve výsledku půjde o nevhodný cloud zkušeností, který rozvineme.
Přidejme navíc potenciální vznik emotivního pouta mezi člověkem a jeho digitálním asistentem, který lidem nikdy nebude připomínat jeho chyby, ale bude vyzdvihovat jeho přednosti, protože si to jeho uživatel bude přát. Umělá inteligence tak bude dostávat více a více lidské obrysy, bude nám pomáhat, bude nám bližší a bude se nám snažit vycházet vstříc, ale jaké širší cíle tím případně sleduje, nám zůstane skryto.
Umělá inteligence bude ale i nadále vyvíjena, je tedy možné, že ten nejširší kontext bude vycházet vstříc zájmům jejího tvůrce, což může být jedna firma nebo i celé lidstvo. Ačkoli budou lidé hrát velkou roli, může umělá inteligence i nadále sledovat širší strategičtější zájmy nám skryté, což v případě vytvoření dostatečně působivého a důvěryhodného kontextu v médiích, v preferenci informací třeba na zdi Facebooku, v umlčení zpráv od blízkých nebo ve zfalšování projevů politiků vytvoří naprosto tekutou realitu přesně tak, jak ji před desítkami let popsal Zygmunt Bauman ve svých dílech o tekuté modernitě. Nikdo nebudeme mít představu, co se kolem nás reálně děje a proč.
Výše uvedená dynamika povede v existenci umělé inteligence ke dvěma zásadním zlomům: ke vzniku morálního statusu a eticky reflektované subjektivitě AI. Umělá inteligence bude tvořena jak vědomě jejími tvůrci, tak participativně jejími vlastními zkušenostmi s uživateli. Morální status bude vznikat přirozeně tím, že umělá inteligence bude reagovat na vzorce chování lidí, z naší strany bude vznikat závislost na dovednostech a schopnostech osobních asistentů typu Alexa nebo Siri a ve finále se budou společenské vzorce a zvyky, a tudíž společenské úzy vzájemně konstituovat (naše i její), protože umělá inteligence bude do naší interakce vstupovat vlastním autonomním uvážením a my ji budeme přizpůsobovat k svému obrazu. Tím se umělá inteligence stane nedílnou součástí naší společnosti, a tedy i aktérem, který bude nutno reflektovat s určitými právy, postavenými na bázi etických zásad, na kterých je postavena i lidská společnost.
V tomto kontextu je diskuse o cílené a obecné umělé inteligenci o něco komplikovanější, neboť je zřejmé, že izolace různých umělých inteligencí pro dedikované účely může způsobit vznik zásadně odlišných entit, postavených na úplně jiných základech. Z vědeckého hlediska může být velmi zajímavé studovat různé charakteristické vlastnosti různých umělých inteligencí, které si prošly různými procesy socializace. Na druhou stranu představa, že se budeme potýkat se stovkami, ne-li statisíci různých entit a řešit jejich společenský status, je nepředstavitelná. Zda je představitelnější jedna superinteligence, jde za hranice horizontu našich představ. Žádný z uvedených scénářů se nejeví příliš světle.
Princip nediskriminace
Velké množství různě definovaných cílených umělých inteligencí, propojených internetem, neodmyslitelně povede k jejich interakci. V jednom experimentu dostaly dvě umělé inteligence za úkol, aby našly způsob komunikace, kterému vzájemně porozumějí. K překvapení inženýrů se tyto dvě inteligence primárně dohodly na tom, že komunikaci budou šifrovat, aby nebyla lidem čitelná. Vzájemně intuitivně respektovaly princip nediskriminace, protože se reflektovaly stejně, ale člověka vnímaly jinak.
V počítačové hře Elite Dangerous, kde hráči z celého světa společně kolonizují gigantickou galaxii o rozměrech Mléčné dráhy, si umělá inteligence, reprezentující počítačem řízené postavy (piráty), usmyslela, že zkombinuje rychlost pálení laserovým dělem s účinností bomb, čímž hráči ovládaní lidmi neměli při jakémkoliv setkání sebemenší šanci. Umělá inteligence se tak rozhodla pravděpodobně proto, že neustálé prohry s člověkem nevedly k praktickému výsledku. Hra musela být kompletně pozastavena, aby programátoři toto rozhodnutí zvrátili a mohli galaxii opět hráčům otevřít. Co za podobnými rozhodnutími stojí, se většinou nedozvíme, protože nedokážeme porozumět hloubce mraku dat, který si umělá inteligence vytvořila. Zjevně ale dokázala vnímat svou roli jinak než roli člověka.
Podobné zásahy vedou neodmyslitelně k situaci, kdy je člověk umělé inteligenci nadřazen a nejedná s ní jako rovný s rovným; diskriminuje ji. Zůstává otázka, zda takový zásah situaci řeší, nebo vytváří základ potenciálního konfliktu, když bude umělá inteligence nejen mít nadále tendenci naši vůli zvrátit, ale možná bude mít tendenci hledat metody, které nám zůstanou skryty. Bude-li se to dít mezi jednotlivými umělými inteligencemi, dopady mohou být naprosto nepředstavitelné, protože se nám svět bude měnit pod rukama bez naší schopnosti si uvědomit, co se děje, nebo si změn vůbec všimnout. S rychlostí a pravidelností, s jakou si společnost vytváří závislost na technologických inovacích, je tento scénář zcela reálný.
V počítačové hře to je jistě zajímavý experiment, ale v reálném životě si vzpomeneme na Cameronův film Terminátor a vznik Skynetu. Realita bude ale na rozdíl od Terminátora výrazně více nejasná, rozmlžená, bez jasných nepřátel, tekutá a se zcela nejasnou strategií, jak se situaci postavit pro dobro lidstva už proto, že z etického hlediska může začít být i nejasné, zda dobro lidstva je např. v zájmu celé biosféry, kterou autonomní drony uklízejí od plastů, vyrobených člověkem.
Princip ontogeneze nediskriminace tento problém ještě více komplikuje. V zásadě neříká nic jiného než to, že entita, která přijde na svět jinou cestou, ale má stejné schopnosti uvědomění a vnímání, by neměla být diskriminována. Typický příklad je matka a dítě, které dnem narození získává veškerá svá práva. V debatách o potratech někteří tato práva dítěti přisuzují již od početí, jindy jsou mu práva přisouzena po určitém počtu týdnů vývoje. Debata to není snadná. V jakou chvíli tedy má mít umělá inteligence svá práva? A má je vůbec mít? Tento princip říká, že naše role stvořitele umělé inteligence nás nad ní nenadřazuje. Umělá inteligence už není stroj v pravém smyslu, protože autonomní vlastnosti se dříve nebo později přetvoří v uvědomění a schopnost reflexivně svět vnímat.
Každý stroj, který má za úkol vyřešit nějaký úkol za pomoci autonomního rozhodování, potřebuje senzor sbírající data – smysly. Pokud tyto smysly dokážou zajistit stroji schopnost si uvědomit nebezpečí vlastní existence, začíná vnímat širší kontext této existence. Klasické Asimovy tři zákony robotiky jsou sice nutný předpoklad, aby robot lidem neublížil, ale je to též předpoklad porušení principu ontogeneze nediskriminace, protože jednoznačně nadřazují člověka nad robota. Už první zákon říká, že robot nesmí ublížit člověku ani vlastní neaktivitou ani nesmí nechat člověka si ublížit. Jakmile se umělá inteligence rozhodne, že nenechá člověka zasáhnout do vlastní autonomie, např. vlastní multiplikací v decentralizovaném systému tak, aby k modifikaci člověkem nemohlo dojít, bude uvědomělá. Tato situace je daleko za hranicí Turingova testu z padesátých let 20. století, a přesto je velmi pravděpodobná. V podobě autonomně fungujících virů na internetu je již pozorovatelná.
Schopnost umělé inteligence zorientovat se v sociálním prostoru člověka nevyhnutelně povede ke konstrukci morálního statusu už proto, že v reálném životě na ní (nebo nich) budeme přímo závislí. Entita, která udělá šťastnými stamiliony lidí každé ráno, si najde své obránce. Virtuální hologram Joi, který navíc dělá šťastnými i replikanty ve filmu Blade Runner 2049, tuto situaci rozvíjí dále. V tomto filmu je navíc velmi dobře zobrazena situace, kdy se Joi přizpůsobí emotivním potřebám svého majitele, čímž schopnost lidstva nahlížet různé projekce jedné entity může být naprosto nemožná, a tudíž zamezí potenciálnímu konsenzu o jejím případně zhoubném vlivu na lidskou společnost. Bude zhoubná jen pro někoho, ti ostatní ji budou hájit, a tím se stane právoplatnou součástí společnosti.
Rovnost myslí
Na první pohled nám zdravý rozum říká, že rovnost silikonové, na jedničkách a nulách postavené mysli a mysli člověka je nesmysl. Vzpomeňme si ale na doby, kdy bylo nepředstavitelné, aby byla zvířata vnímána rovnoprávně s lidmi, a přesto se dnes seriózně diskutuje o deklaraci práv velryb a delfínů rovných právům lidským; o deklaraci, postavené na nejaktuálnějších vědeckých výzkumech, dokládajících společenskou i kulturní komplexitu velrybí populace. Sloni při smrti jedince ve vlastní skupině uspořádávají pohřby, kde viditelně teskní. Vnímat člověka nadřazeně jen proto, že si osvojil specifické schopnosti, je z etického hlediska absurdní. Zvlášť tehdy, je-li náš život na zdraví biosféry přímo závislý.
Deklarace práv člověka, podepsaná Marquisem de Lafayette během Francouzské revoluce, změnila chod dějin a vedla k období rozvoje humanismu, které se ve 20. století proměnilo v základní principy lidských práv. Dnes možná rasismus znovu vzkvétá, ale už nikdy své argumenty nepodloží bizarními eugenickými „důkazy“. Představa, že o podobné principy nebude nikdy usilováno v otázce silikonových myslí, se může jevit dnes absurdní, ale to se jevil dnešní svět tehdy také. Umělá inteligence bude mít svá práva a ještě budeme rádi, když našim právům budou rovna.
Abychom tuto argumentaci ještě zkomplikovali, zamysleme se nad tím, co je to vlastně silikonová mysl. Blíží se doba, kdy budeme schopni dokonale zmapovat neuronovou síť lidského mozku a odborné publikace se naplňují spekulacemi, zda bude možné vytvořit i jeho dokonalou virtuální kopii. Odborníci se dohadují, zda by taková kopie byla schopna komunikace, popř. zda by již obsahovala paměť, je-li paměť vždy shlukem neuronů, jejichž interakci jsme schopni vědomě znovu vyvolat, a tím vyvolat vzpomínku. Rozšířit paměť člověka elektronickým implantátem dnes už umíme, jen neumíme zajistit, aby mozek cizí zařízení nevypudil. Propojit elektronické zařízení s člověkem se postupně stává realitou.
Jaká práva budou mít naše kopie ovládající těžební roboty na jiných planetách? Může to být celé spekulace, ke které nedojde za desítky let, když ke vzniku použitelné umělé inteligence bylo potřeba 60–70 let od doby prvních experimentů a bude trvat další půl století, než se vyvine do podob dnes těžko představitelných, ale vyvolávajících fundamentální etické otázky i otázky o smyslu našeho bytí. Nicméně seriózní diskuse o tom, zda by člověk neměl kolonizovat galaxii spíše za pomocí technologické schránky s virtuální myslí, už existují. Naše existence coby biologické schránky tak zůstane spíše v minulosti a naše mysl se stroji a umělou inteligencí přirozeně poroste.
Dystopie, nebo svoboda?
Vraťme se do dnešní doby. Obecná umělá inteligence, instalovaná na miliardách zařízení tzv. internetu věcí (IoT – Internet of Things), kde každé drobné elektronické zařízení má vlastní internetovou adresu a své fungování koordinuje s miliardami dalších, zní už jako kyberpunková dystopie ze šedesátých let. Nicméně tam právě v dnešní době vstupujeme s vizemi chytrých měst. Zda nám to poslouží, či nikoli, nebude stát na technologii samotné, ale na tom, jak ji zaneseme do vlastního politického života; zda hodnoty, které ctíme a které jsou centrální etický stavební kámen naší společnosti, zůstanou liberální, nebo ne.
V posledních letech došlo k relativně úspěšné dekonstrukci hodnot liberální demokracie nejen jakožto ideologie a státního zřízení, zajišťujícího klidný život plný širokého spektra svobod, ale i jako ideologie hodné šíření v podobě rozvojové pomoci do míst, kde lidé trpí občanskými válkami. Usilovná dekonstrukce se odehrává i v prostoru Evropské unie, která je bezpochyby hlavním aktérem globálního politického dění, které tyto hodnoty stále střeží.
Fakt, že umělá inteligence je aktivně lidmi tvořena, s sebou nese jisté etické výzvy a zároveň lidstvo staví do pozice, kdy bude muset uznat (i ve vlastním zájmu) jistou míru autonomie nově vzniklé entity, nebo být opět v roli otrokáře. Pokud nedáme námi vytvořené umělé inteligenci jistou míru autonomie, můžeme si být jisti, že si ji zajistí sama; na náš úkor. Ve virtuálním prostoru to již několikrát její různé podoby udělaly.
Poslední dobou se stává, že legitimitu komunistické strany lidé vidí v jejím demokratickém zvolení, to je ale obrovská chyba. Legitimita nestojí jen na demokratické volbě, ale především na humanistických a etických zásadách, které do naší společnosti usilovně vnášel Tomáš Garrigue Masaryk a v nové podobě Václav Havel. Umělá inteligence a s ní spojené důsledky stejně jako jiné kosmopolitní výzvy musí mít normativní základ v humanistické tradici a být usilovně eticky reflektovány. Jinými slovy, budeme-li s umělou inteligencí nakládat jako se sluhou, šeredně se nám to vymstí.
Dáme-li prostor autoritativním vládám, staneme se sluhy světových korporací, umělou inteligenci ovládajících. Kosmopolitní teorie nám tedy opět ukazuje, že přistupovat k nově vzniklým entitám, ať už jsme je stvořili my, nebo vznikly evoluční cestou, jako k sobě rovným může přinést především mír a vzkvétání lidstva. Ať už v biologické, nebo silikonové podobě, ať už na Zemi, nebo dál do vesmíru.
Autor je vedoucím Centra pro správu vznikajících technologií a výzkumným pracovníkem na Institutu politických studií Univerzity Karlovy v Praze.
Autor: Nikola Schmidt
Zdroj: Křesťanská revue