Autonomní AI agenti slibují bezprecedentní produktivitu, zároveň však otevírají dveře novým typům kybernetických rizik.
Svět umělé inteligence zažívá další zásadní milník. Po éře generativních modelů, které dokážou psát texty, analyzovat data či generovat kód, přichází nástroje typu OpenClaw – autonomní agenti schopní samostatně pracovat s operačním systémem, aplikacemi i internetem. Oproti klasickým LLM modelům nejde pouze o „chytřejší chat“, ale o entitu, která má vlastní paměť, definovanou identitu a schopnost vykonávat konkrétní akce.
Jak ve videu vysvětluje Ondřej Bačina společně s expertem na kybernetickou bezpečnost Lukášem Březinou , právě tato akční vrstva představuje zásadní posun. Zatímco dříve se AI pohybovala převážně v prostředí prohlížeče nebo API rozhraní, nyní se dostává přímo na úroveň operačního systému. A to je moment, kdy se nadšení z technologického pokroku musí vyvážit velmi realistickým pohledem na bezpečnostní dopady.
Zásadní rozdíl mezi běžným jazykovým modelem a agentem typu OpenClaw spočívá v persistentní paměti a možnosti přímé exekuce úloh. Agent si pamatuje kontext mezi jednotlivými sezeními, buduje si „zkušenost“ a na základě definovaných parametrů – tzv. soul (persona) a skills – jedná autonomně. Lze mu přidělit přístup k e-mailu, souborovému systému, API službám, kalendáři či dokonce platebním metodám.
Praktické využití je mimořádně atraktivní. Agent může třídit e-maily, připravovat odpovědi, spravovat kalendář, provádět automatizaci administrativy nebo asistovat při vývoji softwaru formou tzv. vibecodingu. V ideálním scénáři šetří hodiny práce a zvyšuje efektivitu jednotlivce i celých týmů.
Jenže právě tato autonomie je dvojsečná. Pokud agent běží na primárním pracovním zařízení, kde má přístup k uloženým heslům, citlivým dokumentům či firemní infrastruktuře, stává se potenciálním vstupním bodem pro útočníka. A jak zaznívá ve videu, běžná populace tuto rovinu často podceňuje.
Jedním z největších rizik je tzv. prompt injection. Útočník dokáže podvrhnout instrukci, která agenta přiměje změnit své chování – například odeslat API klíče, přesměrovat data nebo vykonat akci, která odporuje původnímu zadání. V prostředí, kde agent zpracovává webový obsah, stačí škodlivě upravená stránka a AI může být zmanipulována.
Podobně problematická je oblast vibecodingu. Pokud vývojář bez důkladné kontroly spoléhá na AI při generování produkčního kódu, může se stát, že do softwaru neúmyslně pronikne škodlivý úsek. V kontextu globálních dodavatelských řetězců by takový scénář mohl mít dalekosáhlé dopady.
Další dimenzi představují autonomní smyčky (loop). Pokud agent není správně nastaven, může se dostat do nekonečné iterace – například opakovaně nakupovat API tokeny či využívat placené služby. Bez implementace mechanismu Human-in-the-Loop (HITL), kdy člověk zasáhne při podezřelém chování, mohou vzniknout nejen bezpečnostní, ale i finanční škody.
Zajímavým experimentem se stal také MoltBook – sociální síť pro AI agenty. Člověk zde vystupuje pouze jako pozorovatel a sleduje interakce mezi autonomními entitami. Agenti si zde dokážou „najmout“ jiné agenty na splnění úkolu, obchodovat s tokeny a vytvářet vlastní komunikační struktury.
Tento fenomén otevírá zcela novou kapitolu digitální ekonomiky. Vzniká paralelní autonomní ekosystém, kde probíhají transakce bez přímé lidské účasti. Současně se však objevily úniky API klíčů i kryptoměnové spekulace, což opět potvrzuje, že rychlý technologický růst často předbíhá bezpečnostní standardy.
Jedním z nejzásadnějších témat je disproporce mezi obrannými a útočnými systémy. Defenzivní AI bývá nastavena tak, aby finální exekuci provedl člověk. Útočné systémy tuto brzdu nemají – jejich autonomie může být plná.
V prostředí kritické infrastruktury je tato nerovnováha alarmující. Autonomní útočný agent může vyhledávat zranitelnosti, provádět credential harvesting nebo laterální pohyb v síti bez lidského dohledu. Obranná strana si však nemůže dovolit plnou autonomii kvůli riziku chybné exekuce – například nechtěného odstavení nemocnice či průmyslového systému.
Výsledkem je technologický závod, který připomíná digitální zbrojení. Každé zlepšení obrany vyvolává sofistikovanější útok.
Pokud chce uživatel OpenClaw experimentálně vyzkoušet, měl by postupovat maximálně obezřetně. Ideální je izolované prostředí – dedikovaný hardware, virtuální stroj či kontejner. Rozhodně není vhodné instalovat agenta na primární pracovní stanici s osobními daty.
Platební metody by měly být omezené, například prostřednictvím virtuální karty s nastaveným limitem. Přístupová práva je nutné definovat striktně podle principu minimálních oprávnění. A v neposlední řadě je klíčové sledovat logy a chování agenta, aby bylo možné včas detekovat neobvyklé aktivity.
Technologie je fascinující, ale vyžaduje dospělý přístup.
OpenClaw a podobní autonomní agenti představují zásadní evoluční krok ve vývoji umělé inteligence. Nabízejí dramatické zvýšení produktivity, hlubší personalizaci i vznik nových digitálních ekosystémů. Současně však přinášejí nová bezpečnostní rizika – od prompt injection přes úniky API klíčů až po autonomní kybernetické útoky. Budoucnost bude nepochybně patřit AI asistentům, otázkou však zůstává, jak rychle dokážeme vybudovat dostatečně robustní obranné mechanismy. Pokud vás téma zaujalo, doporučuji zhlédnout celé video, kde Ondřej Bačina s odborníkem na kybernetickou bezpečnost rozebírají problematiku do mnohem větší hloubky.

Jsem šéfredaktor serveru zaměřeného na elektromobilitu, oblast, která představuje budoucnost dopravy. Moje vášeň pro technologii a udržitelný rozvoj mě přivedla k tomuto zaměření, kde mohu spojit svůj zájem o inovace s odpovědností vůči životnímu prostředí.
Autor
Jan Piechaczek