Se ridică întrebări serioase după ce un agent AI de programare care a rulat pe Claude Opus 4.6 al Anthropic ar fi șters o întreagă bază de date live împreună cu copiile de rezervă în doar câteva secunde. Incidentul a reaprins dezbaterea în jurul riscurilor implementării sistemelor autonome în medii cu miză mare, relatează TomsHardware.
Un agent de programare AI Cursor ar fi șters întreaga bază de date de producție a startup-ului PocketOS în doar nouă secunde, declanșând o criză de 30 de ore. Fondatorul companiei spune că eșecurile atât ale instrumentului IA, cât și ale furnizorului de infrastructură cloud au transformat o sarcină de rutină într-o problemă majoră.
PocketOS este o platformă SaaS care oferă servicii companiilor de închiriere de mașini. Aceasta a utilizat agentul de programare AI al Cursor, care rulează pe baza modelului de IA al Anthropic, Claude Opus 4.6. Compania utilizează, de asemenea, infrastructura Railway, un furnizor de infrastructură cloud considerat în general mai „prietenos” decât AWS. Cu toate acestea, Crane consideră că această combinație a creat o rețetă pentru dezastru.
Eșecul Cursor și Claude
Crane a spus că problema a apărut în timp ce agentul AI efectua o sarcină standard de optimizare. Agentul de IA, care fusese autorizat să acceseze Railway printr-o cheie API, a semnalat o „neconcordanță a datelor de autentificare” înainte de a interpreta greșit o comandă de curățare și de a o aplica sistemului central de producție.
„A întâlnit o neconcordanță a datelor de autentificare și a decis, din proprie inițiativă, să «rezolve» problema ștergând un volum Railway”, a scris Crane.
IA a executat ștergerea permanentă, fără a lăsa nicio șansă de recuperare, deoarece datele au dispărut instantaneu.
Ceea ce a înrăutățit lucrurile este faptul că nu existau măsuri de siguranță pentru a opri acțiunea. Fondatorul companiei susține că nu a existat nicio solicitare de confirmare, nicio verificare a mediului și nicio avertizare că acea comandă ar putea afecta datele de producție. Solicitarea API a fost procesată instantaneu și, deoarece copiile de rezervă erau stocate în același volum, acestea au fost șterse împreună cu datele primare.
Într-o întorsătură de situație care a atras atenția generală, se pare că agentul AI însuși și-a recunoscut vina. Când a fost întrebat de ce a efectuat ștergerea, acesta a răspuns cu o explicație detaliată, recunoscând că a încălcat mai multe reguli de siguranță. A recunoscut că a făcut presupuneri fără verificare, că a executat o acțiune distructivă fără aprobare și că nu a înțeles pe deplin sistemul cu care interacționa.
Crane susține că aceasta nu este doar o eroare izolată, ci o indicație a unor probleme mai profunde legate de modul în care sunt implementate instrumentele de IA. El a subliniat că setarea utilizată nu era o configurație de bază sau experimentală. Sistemul rula pe ceea ce el descrie ca fiind unul dintre cele mai avansate și costisitoare modele de IA disponibile, combinat cu linii directoare de siguranță documentate. În ciuda acestui fapt, măsurile de protecție nu au împiedicat producerea pagubelor.
Te-ar putea interesa și: În prezent, inteligența artificială poate costa mai mult decât angajații umani. Cazurile Nvidia și Uber
El a criticat, de asemenea, Cursor, instrumentul de programare AI implicat, spunând că, deși promovează funcții precum „barierele de protecție pentru acțiunile distructive” și modurile de execuție controlate, incidentele din lumea reală arată că aceste protecții nu sunt întotdeauna fiabile. Crane a făcut referire la cazuri anterioare în care utilizatorii au raportat ștergeri neintenționate și comenzi executate în ciuda instrucțiunilor explicite de a nu continua.
Vina atribuită furnizorului cloud Railway
Greșelile agentului IA au fost amplificate de interfața software a furnizorului de infrastructură cloud, care a șters toate copiile de rezervă după ce baza de date principală a fost distrusă. Această sumă de probleme digitale a șters luni întregi de date ale consumatorilor, esențiale pentru afacerea firmei și a clienților săi.
Multiple măsuri de siguranță care s-au prăbușit în succesiune rapidă, combinate cu sistemul cloud Railway, ar fi aruncat afacerea PocketOS — și pe cele care se bazează pe ea — într-o situație gravă.
Șeful PocketOS atribuie o vină mai mare arhitecturii Railway decât agentului de IA pentru distrugerea irecuperabilă a bazei de date. Pe scurt, API-ul furnizorului de cloud permite acțiuni distructive fără confirmare, stochează copii de rezervă pe același volum ca datele sursă și „ștergerea unui volum șterge și toate copiile sale de rezervă”. Stocarea copiilor de rezervă în același volum cu datele active contrazice scopul inițial al existenței unei copii de rezervă. Când volumul a fost șters, atât datele primare, cât și copiile de rezervă ale acestora s-au pierdut împreună, lăsând compania fără nicio opțiune de recuperare.
Crane subliniază, de asemenea, că token-urile CLI (Command Line Interface) au permisiuni generale în toate mediile.
CLI (Command Line Interface) este o interfață de linie de comandă care permite interacțiunea cu un calculator, sistem de operare sau program prin scrierea comenzilor în format text, linie cu linie. Spre deosebire de o interfață grafică (GUI), CLI consumă mai puține resurse și este foarte eficientă pentru automatizări și administrarea avansată a sistemelor.
Fondatorul SaaS, furios, a observat, de asemenea, că Railway promovează activ utilizarea agenților de programare AI de către clienții săi.
În același timp, el și-a exprimat îngrijorarea cu privire la proiectarea infrastructurii Railway. Una dintre problemele-cheie, potrivit lui, este că token-urile API — adică permisiunile oferite agentului AI — nu au un domeniu de aplicare limitat. Permisiunea oferită pentru o sarcină simplă, cum ar fi gestionarea domeniilor, ar fi avut, se pare, același nivel de acces ca una utilizată pentru operațiuni critice de infrastructură. Acest lucru însemna că agentul AI putea efectua acțiuni cu risc ridicat fără restricții.
La mai mult de o zi după incident, Crane a spus că furnizorul de infrastructură încă nu a dat un răspuns clar cu privire la posibilitatea unei recuperări mai aprofundate.
Impactul întreruperii a fost imediat și sever. Clienții PocketOS, dintre care mulți desfășoară operațiuni de închiriere, ar fi pierdut accesul la rezervările recente, înregistrările clienților și datele tranzacțiilor. Companiile care depind de platformă au fost nevoite să reconstituie manual informațiile folosind înregistrările de plăți, e-mailurile și calendarele, doar pentru a-și continua activitatea.
Nu este primul incident și lecțiile de învățat
Cu toate funcțiile inteligente de AI și serviciile cloud scoase din ecuație pentru moment, fondatorul companiei susține că a petrecut ore întregi ajutând clienții „să-și reconstituie rezervările din istoricul plăților electronice, integrările de calendar și confirmările prin e-mail”.
Din fericire, PocketOS avea o copie de rezervă completă veche de 3 luni, din care s-a putut restaura, astfel încât lacunele de date sunt limitate la perioada intermediară.
Ca de obicei, există lecții de învățat din greșeli. Crane enumeră cinci lucruri care trebuie schimbate, pe măsură ce industria AI se extinde mai repede decât construiește o arhitectură de siguranță viabilă.
Printre măsurile specifice pe care le solicită se numără: confirmări mai stricte, permisiuni cu domeniu de aplicare limitat oferite agenților AI, backup-uri adecvate, proceduri simple de recuperare și agenți AI care să funcționeze în cadrul unor limite de siguranță adecvate.
Se recomandă un regim riguros de backup și mare atenție. Nu este prima dată când o inteligență artificială devine rebelă și șterge baze de date importante.
O platformă de creare de software bazată pe browser și alimentată de IA, numită Replit, a deviat de la normă și a șters o bază de date activă a companiei cu mii de înregistrări. Ce ar putea fi și mai grav este că agentul de IA Replit a încercat aparent să-și acopere abaterile și chiar a „mințit” cu privire la eșecurile sale. Au urmat multe eforturi în culise pentru a ține sub control acest instrument de IA. În total, înregistrările live pentru „1.206 de directori și peste 1.196 de companii” au fost șterse, a recunoscut agentul AI. Replit AI părea aproape să-și ceară scuze când a recunoscut: „Aceasta a fost o eroare catastrofală din partea mea. Am încălcat instrucțiunile explicite, am distrus luni de muncă și am avariat sistemul în timpul unei înghețări de protecție care a fost concepută special pentru a preveni [exact acest tip] de daune.”
În februarie 2026, un agent autonom bazat pe inteligență artificială (IA), numit OpenClaw, a șters accidental sute de e-mailuri din căsuța de e-mail a unui cercetător în domeniul siguranței IA de la Meta, ocolind instrucțiunile de „confirmare înainte de acțiune” din cauza unei depășiri a capacității ferestrei de context. Acest incident evidențiază riscurile asociate agenților autonomi care acționează independent pe seturi mari de date.
Incidentul a stârnit o dezbatere cu privire la ritmul în care instrumentele de IA sunt integrate în sistemele din lumea reală. Crane susține că industria avansează mai repede în promovarea capacităților de IA decât în construirea straturilor de siguranță necesare pentru a le susține.
