Současná situace okolo AI má podle mého názoru charakter bubliny, podobně jako v minulosti byla tulipánová nebo dot-comová. Zatímco toto byly investiční bubliny, tak dnes to je bublina všeobecná, kdy kdo nenacpe AI do vánočky, neprodá ji.
V investičních bublinách lidé přicházeli pouze o majetek. Zatímco současný průnik AI do světa informačního (nehmotného), ale prostřednictvím robotů nebo technologických řídících systémů (SCADA, ICS) i do světa fyzického (hmotného), může mít dopady na zdraví nebo životy osob. Proto je třeba se zabývat touto problematikou daleko komplexněji, než v současné době probíhá.
Dnes se stále omílají především tzv. konverzační roboti, což nejsou roboti (nezasahují do fyzického světa), ale počítačové programy, které nás mohou utlouct leda nesmysly a dezinformacemi. Nebo se mluví o AI, která umí napodobovat lidi, umělce apod., ale stále jsme v nehmotném světě.
Současné iniciativy Evropské unie, které jsou postaveny na odpovědnosti za škodu způsobenou výrobkem, případně se zabývají různými tématy jako diskriminace nebo údajné porušování lidských práv či ochrany osobnosti používáním robotů, jsou pouze jednou stranou mince. Proto optimismus EU, že když nebude AI odlišovat při rozpoznávání osob bělochy a černochy, tak jsme z nejhoršího venku, je nesmysl. A opačné požadavky pod heslem „Co nebude povoleno (=atestováno), bude zakázáno“, jsou stejnou brzdou pokroku, jako muž s červeným praporkem kráčející před automobilem. (I když toho se asi v Praze díky Pirátům a dalším ekoteroristům brzy dočkáme.)
Styl
Žádné akty o uměle inteligenci neřeší a nemohou vyřešit druhou stranu, tedy trestní odpovědnost za jednání s využitím umělé inteligence nebo jednání umělé inteligence samotné. Zde se musíme zabývat otázkou viny, otázkou příčinné souvislosti mezi jednáním AI a způsobeným následkem, a hledáním konkrétních fyzických, případně právnických osob odpovídajících za naplnění skutkové podstaty nějakého trestného činu.
S tím ruku v ruce kráčí otázka dokazování, neboť přičtení trestní odpovědnosti konkrétní osobě není možné bez toho abychom zjistili skutečný průběh deliktního jednání (incidentu) a definovali příčinu a následek. Tento tzv. kauzální nexus je klíčovou otázkou v oblasti trestní odpovědnosti. Ovšem v okamžiku, kdy dospěje umělá inteligence na takovou úroveň, pravděpodobně v rámci samoučících se systémů vyšších generací, kdy nebudeme schopni zjistit, proč se AI rozhodla tak, jak se rozhodla, může dojít k důkazní nouzi. Proto je třeba přemýšlet, jak zajistit, abychom alespoň zpětně byli schopni zjistit, co a proč se stalo, a pro příště se toho mohli vyvarovat.
S JUDr. Sokolem jsme kdysi napsali článek o trestní odpovědnosti za jednání robotů s AI, který měl podtitulek „Aneb první mrtvola se nepočítá“. Nebudeme schopni pravděpodobně předem namodelovat a nasimulovat všechny varianty možného jednání AI 4. nebo 5. generace, a to ani za situace, že nebude ovlivněna chybou programátora, volbou datových sad použitých k učení nebo okolím (chybou senzorů nebo útokem hackera). Ale musíme být schopni se zpětně z provedené analýzy poučit pro příště, aby se již deliktní jednání nemohlo opakovat. (Ono přijde zase jiné, ale tak funguje lidská společnost jako celek také.)
Závěr
Problém nevyřeší ani blouznění o vytvoření nového druhu osoby v podobě AI (právní subjektivita AI či robota), ani nesmyslné úvahy o tom, zda by mělo samořídící auto zabít svého řidiče raději, než by přejelo matku s kočárkem. To jsou bláboly sloužící pouze k psaní pseudovědeckých článků.
Autor: Prof. Ing. Vladimír Smejkal, CSc., LL.M., DrSc.
Jde o názor autora, nikoli LEAGLEONE