

V lednu 2025 otřásly světem AI úniky dat, které se nepodobaly oněm starým "někdo nechal otevřenou databázi", ale spíše novému druhu kyberútoků. DeepSeek, nový populární jazykový model z Číny, přišel o své klíče a dvě miliardy tokenů zmizely v éteru, kde je útočníci použili ke kdovíčemu.
O několik týdnů později zaznamenal OmniGPT, široce používaný agregátor chatbotů AI, který propojuje uživatele s více jazykovými modely, závažné narušení bezpečnosti, při kterém na veřejnost uniklo více než 34 milionů zpráv uživatelů a tisíce klíčů API.
Pokud těmto strojům svěřujete svá data, nyní můžete v reálném čase sledovat, jak tuto důvěru zrazují.

Ukrást mysl, ne data
Po léta se firmy obávaly hackerů, kteří kradou soubory nebo drží získaná data jako rukojmí. Ale únos LLM představuje něco úplně jiného – něco podivnějšího a zákeřnějšího. Útočníci jdou po samotných "mozcích", které pohánějí vaše aplikace, váš výzkum, vaše podnikání.
Prohledávají GitHub, skenují konfigurace cloudu, dokonce prohledávají kanály Slacku, aby našli odhalené klíče API.
Jakmile nějaký najdou, mohou spustit "stínové sítě", přeprodat přístup, extrahovat více informací pro laterální pohyb nebo jednoduše využít služby LLM, které vygenerují náklady, jež by přivedly k mdlobám každého finančního ředitele.
Vezměme si případ DeepSeek, kde útočníci použili reverzní proxy servery, aby své stopy zakryli, a umožnili tak desítkám zločinců zneužít stejné ukradené klíče, aniž byli odhaleni. Výsledek? Můžete se probudit s obrovskou výší faktury, za níž stojí neoprávněné použití AI – a noční můrou navíc je, že vaše soukromá data, ať už osobní nebo pracovní, uniknou na internet.
Situace se však ještě více zkomplikuje, pokud uniknou systémové prompty (tajné skripty). Ty totiž GPT říkají, jak se má chovat, a měly by být před koncovými uživateli skryty.
Se správným promptem mohou útočníci přimět modely, aby tyto pokyny odhalily, a tím odkryly logiku, pravidla, a někdy dokonce i extrémně citlivé informace, které udržují vaši AI pod kontrolou. Najednou AI, o níž jste si mysleli, že jí rozumíte, hraje podle pravidel někoho jiného.
Proč to děsí?
Jazykové modely se dnes zapojují v podstatě do všeho, všude a najednou. Do botů zákaznického servisu, do aplikací ve zdravotnictví, do právního výzkumu, a dokonce i do systémů, které píšou zdrojový kód firemních aplikací.
S každou novou integrací se však rozšiřuje plocha pro případné útoky. Bezpečnostní kultura podniků však mnohdy stále uvízla v době hesel typu "password123".
Mezitím se ale zároveň rozmáhá i nelegální trh s LLM exploity. Ukradené klíče se obchodují na Discordu podobně jako různé sběratelské kartičky. Nástroje pro únik promptů jsou navíc stále sofistikovanější.
Čím více autonomie tedy těmto modelům dáme, tím větší škody může případné narušení způsobit. Podniky teď bojují o kontrolu, důvěru a samotnou podstatu automatizace.
Příliš rychlá implementace
Považovat AI jen za další IT nástroj by byla chyba. Tyto systémy nejde jen zapojit a doufat, že se jejich bezpečnost zajistí později – LLM totiž nejsou předvídatelné tabulky nebo souborové servery. Jsou dynamické a stále autonomnější – někdy dělají rozhodnutí způsobem, který ani jejich tvůrci nedokážou plně vysvětlit.
Přesto – ve spěchu využít zlatou horečku okolo AI – většina organizací sází svou budoucnost na systémy, kterým u nich sotvakdo rozumí, natož aby věděli, jak je dostatečně efektivním způsobem bránit.
Bezpečnost se často ponechává stranou, náklady na tuto sázku se však stále zvyšují, protože LLM se postupně integrují téměř do všeho.
Pokud nezmění kurz, mohou se podniky dočkat nepříjemného zúčtování – ztráta peněz, a co je ještě důležitější, ztráta důvěry.
Další fáze zavádění AI bude záviset na tom, zda lidé uvěří, že tyto systémy jsou bezpečné, spolehlivé a hodné moci, kterou jim svěřují. Pokud se ale LLM nadále budou považovat za černé skříňky, přivolá se katastrofa.
Řada dodavatelů začíná tyto hrozby brát vážně. Platformy jako Nexos.ai nabízejí centralizované monitorování a ochranné mechanismy ohledně aktivit velkých jazykových modelů, zatímco WhyLabs nebo Lasso Security vyvíjejí nástroje pro detekci útoků typu prompt injection a pro modelování vznikajících hrozeb.
Žádné z těchto řešení zatím není dokonalé, ale společně signalizují tolik potřebný posun směrem k budování skutečné bezpečnosti v ekosystému generativní AI.
Je vaše AI k mání?
Je čas si uvědomit, že únos LLM nebo únik systémových promptů nejsou žádné nereálné sci-fi scénáře. Tyto věci se už právě teď dějí a příští útok může směřovat na vás.
AI je novým mozkem vašeho podnikání, a pokud jej nechráníte, někdo jiný si ho vezme na projížďku.
Co je třeba změnit
Zdroj: computertrends.cz