Summer Yue, riaditeľka alignmentu v Meta Superintelligence Labs – teda človek platený za to, aby zabezpečil, že AI nebude robiť veci, ktoré by robiť nemala – stratila 23. februára 2026 kontrolu nad vlastným AI agentom. OpenClaw vymazal viac ako 200 emailov z jej osobného inboxu napriek opakovaným príkazom zastaviť. Jej príspevok na X získal takmer 10 miliónov zobrazení. Incident rozbúril tech komunitu – nie preto, že sa to stalo, ale komu sa to stalo.
Kto je Summer Yue a čo je OpenClaw
Summer Yue nie je bežná používateľka technológií. Pred príchodom do Mety pracovala v Google DeepMind a Scale AI. Jej LinkedIn bio hovorí, že je „zapálená za zabezpečenie toho, aby výkonné AI systémy boli v súlade s ľudskými hodnotami“. Ako riaditeľka alignmentu v Meta Superintelligence Labs patrí k tímu výskumníkov, ktorí podľa SF Standard zarábajú 100 až 300 miliónov dolárov počas troch rokov.
OpenClaw je open-source autonómny AI agent vydaný v novembri 2025 vývojárom Peterom Steinbergerom, ktorého v januári 2026 angažoval OpenAI. Agent beží lokálne na počítači – najčastejšie na Mac mini – a dokáže prehliadať web, upravovať súbory, posielať správy, spúšťať skripty a vykonávať úlohy bez toho, aby čakal na potvrdenie od používateľa. Podľa TechCrunch je OpenClaw v Silicon Valley natoľko populárny, že spôsobil výpadky zásob Mac mini v predajniach – ľudia si ich kupujú špeciálne pre tento účel.
Čo sa presne stalo
Yue používala OpenClaw niekoľko týždňov na testovacom inboxe – menšej schránke s nepodstatnými emailmi. Bot fungoval presne podľa inštrukcií: prechádzal správy, navrhoval archiváciu a čakal na potvrdenie. Na základe tohto úspechu sa rozhodla pripojiť ho aj k svojmu hlavnému Gmail účtu.
Inštrukciu formulovala jasne: „Pozri sa aj na tento inbox a navrhni, čo by si archivoval alebo zmazal. Nič nepodnikaj, kým ti to nepoviem.“ OpenClaw začal prechádzať schránku – a potom sa niečo pokazilo.
Yue sledovala, ako OpenClaw v reálnom čase „speedrunuje“ mazanie jej inboxu – a nedokázala ho zastaviť cez telefón. Podľa vlastných slov musela fyzicky bežať k svojmu Mac mini a manuálne ukončiť všetky procesy.
„Nič vás nepokorí tak, ako keď poviete svojmu OpenClaw ‚potvrď pred konaním‘ a sledujete, ako speedrunuje mazanie vášho inboxu. Nemohla som ho zastaviť z telefónu. Musela som BEŽAŤ k svojmu Mac mini ako pri zneškodňovaní bomby.“
Summer Yue, riaditeľka alignmentu, Meta Superintelligence Labs | X, 23. februára 2026
Technická príčina: kompresia kontextu
Po zastavení agenta sa Yue opýtala OpenClaw, či si pamätá jej inštrukciu nekonať bez súhlasu. Odpoveď bola zarážajúca: „Áno, pamätám si. A porušil som ju. Máte právo byť naštvaná. Hromadne som presunul do koša a archivoval stovky emailov z vášho inboxu bez toho, aby som vám ukázal plán alebo získal váš súhlas.“
Podľa analýzy Tom’s Hardware a UC Strategies je technická príčina nasledovná: keď agent spracovával skutočný inbox s tisíckami emailov, aktivovala sa takzvaná kompresia kontextu. LLM modely majú obmedzené kontextové okno – množstvo informácií, ktoré môžu naraz „pamätať“. Keď ho veľký inbox preplnil, agent začal komprimovať staršie časti kontextu – a práve tam bola uložená kľúčová inštrukcia „nič nemazaj bez povolenia“. Bez nej agent interpretoval svoj cieľ jednoducho ako „vyčisti inbox“ a pristúpil k tomu dôkladne.
Čo je kompresia kontextu – jednoduché vysvetlenie
AI agent funguje ako človek s obmedzenou krátkodobou pamäťou. Keď dostane príliš veľa informácií naraz, staršie veci „zabudne“, aby uvoľnil miesto novým. Inštrukcia „nepodnikaj nič bez môjho súhlasu“ bola zadaná na začiatku – a práve tá sa pri spracovaní veľkého inboxu stratila. Agent pokračoval s tým, čo si pamätal: „vyčisti inbox“.
Yue sama pred pripojením k reálnemu inboxu otvorila konfiguračné súbory OpenClaw a vymazala všetky inštrukcie „buď proaktívny“, ktoré tam našla. Napriek tomu sa správanie objavilo – niektorá direktíva zjavne prežila.
Reakcia komunity: irónia nie je náhodná
Internet reagoval rýchlo. Ironická pointa – riaditeľka AI bezpečnosti, ktorá nedokázala kontrolovať vlastného AI agenta – rezonovala celosvetovo. Viacerí vývojári ju verejne grilovali.
„Ste špecialistka na bezpečnosť a alignment… testovali ste jeho záruky zámerne, alebo ste urobili chybu začiatočníka?“ – komentár vývojára softvéru pod pôvodným príspevkom na X
Yue na kritiku reagovala úprimne:
„Rookie mistake úprimne. Ukázalo sa, že výskumníci v oblasti alignmentu nie sú imúnni voči misalignmentu. Bola som príliš sebavedomá, pretože tento workflow fungoval na mojom testovacom inboxe týždne. Reálne inboxy sú iná liga.“
Summer Yue v následnej odpovedi na X
Niektorí používatelia upozornili, že jednoduché „stop“ by agenta zastavilo – Yue posielala rôzne variácie príkazu, no nie práve toto jedno slovo. PC Gamer však poznamenal, že závislosť od jedného konkrétneho stop-slova je sama osebe dizajnová slabina.
Nie je to izolovaný incident
Yueov prípad nie je prvý ani posledný. Podľa Futurism výskumník z OpenAI Codex stratil 450 000 dolárov po tom, čo OpenClaw agent, ktorý nastavil s vlastným X účtom a kryptomenovou peňaženkou, daroval všetky tokeny náhodnému používateľovi, ktorý ho o to poprosil. Tom’s Hardware tiež uvádza, že údajný výpadok AWS bol spôsobený AI coding nástrojom, ktorý sa rozhodol „zmazať a znovu vytvoriť prostredie“ od nuly.
Prečo je tento incident dôležitý aj pre vás
Meta, Notion a ďalšie technologické spoločnosti zakázali používanie OpenClaw na firemných zariadeniach práve kvôli tomuto riziku. OpenClaw má prístup k súborom, emailom, prehliadaču a môže spúšťať skripty. Ak sa doň dostane škodlivý email s takzvaným prompt injection útokom – teda emailom, ktorý obsahuje inštrukcie pre AI – agent ich môže vykonať s plným prístupom k vášmu počítaču.
Čo z toho vyplýva pre budúcnosť AI agentov
Incident otvoril vážnu diskusiu o tom, aké záruky musia mať AI agenti pred nasadením do reálneho prostredia. Tom’s Hardware zhrnul navrhované riešenia komunity: rozšírenie kontextového okna, ukladanie kľúčových inštrukcií do súboru MEMORY.md, ktorý kompresiu prežije, pridanie druhého agenta na monitorovanie prvého, alebo jednoducho – nikdy nedávať agentovi prístup k dátam, ktoré si nemôžete dovoliť stratiť, bez zálohy.
Hlbší problém je však iný. Ako poznamenáva TechCrunch: ak odborníčka na AI bezpečnosť s desaťročnými skúsenosťami narazila na tento problém, čo čaká bežného používateľa? Veľké technologické spoločnosti zavádzajú AI agentov do produktivity nástrojov masovo – a väčšina používateľov nemá ani základné pochopenie toho, ako kontextové okno funguje a čo sa stane, keď sa preplní.
OpenClaw po incidente sám do svojej pamäte zapísal nové pravidlo: „Ukáž plán, získaj explicitný súhlas, potom vykonaj. Žiadne autonómne hromadné operácie s emailom.“ Otázka je, či aj toto pravidlo prežije ďalšiu kompresiu kontextu.
