V úvodu jsme si přiblížili, že (generativní) umělá inteligence vlastně neexistuje. Jsou to víceméně statistické modely, které se skládají ze dvou základních složek – knihovny a paní knihovnice (Databáze a Algoritmus). A že pouze využívá a kombinuje dostupná data a napodobuje vzory.
Funguje tedy stejně jako lidská mysl. V paměti (databázi) máme uloženy naučené nebo prožité události, datumy, čísla, obličeje, láčkovce, hlavonožce a podle očekáváného vzoru je interpretujeme. Pojem očekávaný vzor lze přirovnat k běžné lidské situaci – jinak mluvíme ve škole, v práci, hospodě nebo před panem prezidentem. Stejně tak je AI naučená co možná nejlépe reagovat na různé situace (zadání) a náležitě kombinovat údaje.
Na rozdíl od člověka budou modely AI vynikat v kapacitě paměti, rychlosti přístupu k ní a ve zpracování výstupu. Pokulhávat bude AI naopak v oblasti ověřování dat/výsledku, nezaujatém úsudku a v improvizaci. S těmito oblastmi má ale potíže i člověk sám.
Nekvalitní data a nekritické myšlení
Pokud databáze (lidská nebo počítačová paměť) obsahuje nekvalitní (nepravdivé) data, bude jak člověk tak i umělá inteligence velice tvrdošíjně tvrdit, že Země je například placatá. A je jen na nás, zda tomu uvěříme.
Tento druh „nepravdy", o které je prezentující strana v dobré víře přesvědčena, je tedy založen na nekvalitních vstupních datech. U člověka by se dalo v tomto případě mluvit o jeho osobním přesvědčení plynoucím z vlastní životní zkušenosti.
Podrobněji k nedostatkům databáze ve vlastní kapitole Databáze.
Druhým zásadním nedostatkem jak člověka tak umělé inteligence je algoritmus. Tedy to:
- jak (ne)kriticky přemýšlíme a vyhodnocujeme. Je AI naučená vstupní data jen nekriticky přijímat, nebo je umí stejně jako člověk ověřovat? A jak kvalitní to ověření je? Jaké postupy k tomu používá?
- jak dobře jsme skutečně porozuměli zadání? Stejně jako knihovnice, tak i algoritmus AI totiž nemusí být na určitý druh zadání dobře připraven. Porozumí určitým pojmům úplně jinak, než jsme mysleli my.
Podrobněji k nedostatkům algoritmu ve vlastní kapitole Algoritmus.
Třetí nebezpečí: zdánlivá autorita
A pak je zde ještě jeden způsob, jak danou „nepravdu" navíc podpořit. Stejně jako my lidé máme své sňatkové podvodníky nebo skvělé řečníky, i umělá inteligence dovede ať pravdivé nebo nepravdivé data zabalit do uvěřitelného příběhu a dát tomu všemu velice vážený a důvěryhodný tón tak, že tomu mnohem snadněji uvěříme.
Neschopnost ověřovat si data začínají efektivně řešit právě AI agenti s přístupem na internet, ale přináší to nová rizika. Běžný chatbot sice může sebevědomě halucinovat (vymýšlet si neexistující fakta), ale pokud stejnou chybu udělá AI agent, může na této „blbosti” začít stavět další kroky.
Smyčka samostatného jednání tak může způsobit, že se chyba zřetězí (tzv. zesílené halucinace) a agent například pošle e-mail s chybným termínem dříve, než si toho vůbec všimnete. Stále tedy platí, že AI je mocný asistent, který ke své práci bezpodmínečně potřebuje dohled člověka.