AI poate produce erori sau breşe de securitate cu efecte financiare imediate,când ajunge să execute tranzacţii – raport
:format(jpg):quality(80)/https://www.economica.net/wp-content/uploads/2025/05/tranzactii-calculator-630x420.jpg)
Conform analizei realizată de specialiştii Bitget şi SlowMist, odată cu migrarea de la recomandare la acţiune efectuată de AI, apare şi o nouă categorie de risc, pentru care modelele tradiţionale de securitate nu au fost concepute încă.
„În momentul în care Inteligenţa Artificială nu se mai limitează la recomandări şi ajunge să execute tranzacţii, erorile sau breşele de securitate pot produce efecte financiare imediate. În piaţa crypto, unde tranzacţiile sunt procesate aproape instant, un agent compromis sau direcţionat greşit poate lua decizii înainte ca oamenii să poată interveni. Sistemele AI autonome deschid noi puncte vulnerabile în privinţa securităţii, de la datele pe care le primesc până la modul în care execută tranzacţii. Concret, aceste sisteme pot fi influenţate de comenzi înşelătoare, aplicaţii periculoase sau API-uri prea permisive, ceea ce poate duce la acţiuni nedorite. Astfel, pentru că acest tip de agenţi funcţionează continuu, fără supraveghere din partea utilizatorului, riscul ca o eroare sau un atac să producă efecte negative este şi mai mare”, se menţionează în raport.
În opinia experţilor, aceste vulnerabilităţi nu sunt cazuri izolate, ci fac parte dintr-un risc sistemic.
„Aşadar, în această nouă etapă, securitatea nu mai poate fi gândită doar ca măsuri de protecţie la nivelul aplicaţiei, ci trebuie integrată în întreaga arhitectură prin care sistemele AI interacţionează cu capitalul. Pe fondul acestor riscuri, platformele care folosesc agenţi AI sunt nevoite să regândească măsurile de siguranţă adoptate, subliniază raportul menţionat. Una dintre soluţiile tot mai des invocate este separarea clară între analiză, execuţie şi accesul la fonduri, pentru a evita situaţiile în care o singură vulnerabilitate poate declanşa tranzacţii neintenţionate. Permisiunile sunt structurate pe principiul accesului minim necesar, iar înainte ca execuţia să fie finalizată sunt introduse procese de simulare şi verificare a tranzacţiilor. Aceste controale sunt concepute pentru a garanta că, deşi agenţii AI operează autonom, aria lor de acţiune rămâne clar definită şi limitată”, notează sursa citată.
Potrivit raportului, este nevoie de un model de securitate care să funcţioneze în toate etapele unei tranzacţii, adică înainte, în timpul şi după execuţie.
În acelaşi timp, monitorizarea continuă, permisiunile limitate şi verificarea fiecărei tranzacţii reprezintă elemente de bază într-un asemenea cadru, iar securitatea nu mai este doar o reacţie, ci un sistem integrat.
„Datele indică o realitate mai amplă, în care agenţii AI devin tot mai integraţi în activităţile de tranzacţionare, administrare a activelor şi operaţiuni on-chain, iar graniţa dintre intenţia utilizatorului şi execuţia sistemului devine din ce în ce mai abstractă. În acest context, gradul de încredere nu mai este determinat exclusiv de performanţă, ci şi de capacitatea sistemelor de a funcţiona cu limite controlate. Activitatea financiară devine tot mai automatizată, însă infrastructura trebuie să fie concepută nu doar pentru viteză şi acces, ci şi pentru control şi rezilienţă”, susţin specialiştii.
Raportul realizat de Bitget şi SlowMist este un punct de referinţă pentru platformele de tranzacţionare cu active digitale, dezvoltatori şi utilizatori care navighează această tranziţie.