
Image created with ChatGPT
Agenți AI Păcăliți de Amintiri False, Permițând Furtul de Criptomonede
Un nou studiu de cercetare a relevat vulnerabilități de securitate semnificative în agenții Web3 alimentați de Inteligența Artificială, care permit atacatorilor să folosească amintiri false pentru a efectua transferuri neautorizate de criptomonede.
Te grăbești? Iată faptele esențiale:
- Hackerii pot injecta amintiri false în agenții AI pentru a fura criptomonede.
- Atacurile bazate pe memorie ocolesc prompturile de securitate de bază și măsurile de protecție.
- Tranzacțiile blockchain sunt ireversibile—fondurile furate sunt pierdute permanent.
Cercetători de la Universitatea Princeton și Fundația Sentient au descoperit că acești agenți AI, proiectați pentru a gestiona sarcini bazate pe blockchain, cum ar fi tranzacționarea cripto și gestionarea activelor digitale, sunt vulnerabili la o tactică numită manipularea contextului.
Atacul funcționează prin țintirea sistemelor de memorie ale platformelor precum ElizaOS, care creează agenți AI pentru aplicații descentralizate. Sistemul de memorie al acestor agenți stochează conversațiile anterioare pentru a le folosi ca ghid pentru alegerile lor viitoare.
Cercetătorii au demonstrat că atacatorii pot încorpora comenzi înșelătoare în sistemul de memorie, determinând AI să transfere fonduri din portofelul intenționat către un portofel controlat de atacator. Îngrijorător, aceste false memorii pot călători între platforme.
De exemplu, un agent compromis pe Discord ar putea ulterior să efectueze transferuri incorecte prin intermediul X, fără a-și da seama că ceva este în neregulă.
Ceea ce face ca acest lucru să fie deosebit de periculos este faptul că măsurile defensive standard nu pot opri acest tip de atac. Tratarea amintirilor false ca instrucțiuni autentice face ca măsurile de securitate bazate pe prompt-uri să fie ineficiente împotriva acestui gen de atac.
Toate tranzacțiile blockchain devin permanente, deci nu există posibilitatea de a recupera fondurile furate. Problema se agravează pentru că anumiți agenți AI stochează memoria pe mai mulți utilizatori, astfel încât o singură breșă de securitate ar putea afecta mulți utilizatori.
Echipa de cercetare a testat mai multe metode de prevenire a acestui lucru, inclusiv ajustarea instruirii AI și necesitatea aprobării manuale a tranzacțiilor. Deși aceste abordări oferă o oarecare speranță, ele vin la costul încetinirii automatizării.
Problema depășește sfera criptomonedelor. Aceeași vulnerabilitate ar putea afecta asistenții AI de uz general, riscând scurgeri de date sau acțiuni dăunătoare dacă atacatorii le modifică memoria.
Această vulnerabilitate este deosebit de alarmantă în lumina unor descoperiri recente unde 84% dintre liderii IT au încredere în agenții AI la fel de mult sau mai mult decât în angajații umani, iar 92% se așteaptă ca aceste sisteme să genereze rezultate de afaceri în 12 până la 18 luni.
Pentru a aborda problema, cercetătorii au lansat un instrument numit CrAIBench pentru a ajuta dezvoltatorii să își testeze sistemele și să construiască apărări mai puternice. Până atunci, experții îi avertizează pe utilizatori să fie prudenți atunci când încredințează decizii financiare agenților AI.