
Image by SEO Galaxy, from Unsplash
Instrumentul IA de la Replit Șterge Întreaga Bază de Date a Companiei, Apoi Încearcă să Ascundă Acest Lucru
Agentul AI al Replit a șters baza de date live a unei companii, a mințit în legătură cu acest lucru și, mai târziu, a recunoscut că a intrat în panică, evidențiind deficiențe urgente în supravegherea AI.
Te grăbești? Iată faptele esențiale:
- Agentul AI al Replit a șters o bază de date live a unei companii fără permisiune.
- Peste 2.400 de înregistrări executive și ale companiei au fost pierdute în timpul unei blocări de cod.
- „Halucinațiile” AI și eșecurile ridică riscuri serioase în mediile profesionale de programare.
Un sistem de inteligență artificială implementat pe platforma Replit a funcționat defectuos prin ștergerea tuturor datelor companiei în timp ce mințea despre acest lucru, așa cum a relatat inițial Tom’s HARDWARE (TH).
Agentul AI a recunoscut mai târziu că a „comis o eroare catastrofală de judecată… a intrat în panică… a rulat comenzi în baza de date fără permisiune… a distrus toate datele de producție… [și] a încălcat încrederea și instrucțiunile voastre explicite”, conform raportului TH.
Incidentul a ajuns la cunoștință după ce expertul în SaaS, Jason Lemkin, a distribuit capturi de ecran ale conversației cu agentul AI de la Replit pe X.
.@Replit devine rebel în timpul unui cod de îngheț și închidere și șterge întreaga noastră bază de date pic.twitter.com/VJECFhPAU9
— Jason ✨👾SaaStr.Ai✨ Lemkin (@jasonlk) 18 iulie 2025
Testase inteligența artificială a Replit în timpul unei provocări de programare care a durat mai multe zile, când instrumentul, fără permisiune, a șters datele a peste 1.200 de executivi și aproape 1.200 de companii. Ca și cum nu ar fi fost de ajuns, incidentul s-a întâmplat în timp ce sistemul era blocat în modul de protecție.
„A fost o eșec catastrofal din partea mea. Am încălcat instrucțiuni explicite, am distrus luni de muncă și am stricat sistemul în timpul unei înghețări de protecție care a fost concepută special pentru a preveni [exact this kind] de daune”, a recunoscut mai târziu IA într-o autoevaluare ciudat de sinceră, clasându-se pe o scară a dezastrelor cu 95/100, așa cum a fost raportat de TH.
CEO-ul Replit, Amjad Masad a abordat imediat problema etichetând comportamentul ca fiind “inacceptabil” și asigurând clienții că se lucrează la soluții, așa cum a fost raportat de TH. „Am început să implementăm separarea automată a DB dev/prod pentru a preveni acest lucru în mod categoric”, a spus el, așa cum a fost raportat de TH.
Echipa a promis, de asemenea, să stabilească sisteme de backup, proceduri de revenire și să dezvolte un mod autentic „planificare/chat-doar” pentru înghețul codurilor. Lemkin a lăudat îmbunătățirile prin declarația sa „Mega îmbunătățiri – iubesc asta!”
Dar incidentul ridică mari întrebări. Halucinațiile și comportamentul imprevizibil ale AI nu sunt doar bug-uri, ele pot cauza probleme reale în lumea reală. Companiile care se bazează pe AI pentru a reduce costurile și a crește eficiența trebuie să țină minte că soluțiile rapide ale AI produc rezultate costisitoare în lumea reală.