Cele 5 mari riscuri pe care AI-ul generativ le aduce: de la manipulare socială prin ”halucinații și fabricații” la securitatea cibernetică. Ce măsuri trebuie să ia autoritățile și companiile pentru a ne proteja

Pe măsură ce inovația în domeniul inteligenței artificiale generative (AI) continuă într-un ritm alert, îngrijorările legate de securitate și riscurile pe care le aduce au devenit tot mai evidente. Unii politicieni au solicitat noi reguli și reglementări pentru instrumentele AI, în timp ce unii lideri din domeniul tehnologiei și afacerilor solicită o pauză în antrenarea sistemelor AI pentru a evalua nivelul lor de siguranță.
Lidia Neagu - Dum, 21 mai 2023, 21:51
Cele 5 mari riscuri pe care AI-ul generativ le aduce: de la manipulare socială prin ”halucinații și fabricații” la securitatea cibernetică. Ce măsuri trebuie să ia autoritățile și companiile pentru a ne proteja

Avivah Litan, vicepreședinte analist la Gartner, a explicat ce trebuie să știe liderii responsabili de dezvoltarea AI în ceea ce privește încrederea, gestionarea riscurilor și securitatea AI-ului și a arătat care sunt unele dintre cele mai semnificative riscuri pe care le prezintă inteligența artificială generativă în prezent.

”Realitatea este că dezvoltarea AI-ul generativ nu se oprește. Organizațiile trebuie să acționeze acum pentru a formula o strategie cuprinzătoare la nivelul întreprinderii pentru încredere, gestionarea riscurilor și securitatea AI (AI TRiSM). Există o nevoie urgentă de o nouă clasă de instrumente AI TRiSM pentru a gestiona fluxurile de date și de proces între utilizatori și companiile care găzduiesc modele fundamentale AI generative”, spune Avivah Litan.

Prin adoptarea unor abordări responsabile și prin luarea măsurilor de securitate adecvate, organizațiile pot exploata în mod eficient potențialul tehnologiei generative de inteligență artificială. Însă, pentru a minimiza riscurile asociate, liderii din organizații trebuie mai întâi să cunoască care sunt aceste riscuri.

Potrivit acesteia, inteligența artificială generativă ridică o serie de consecințe negative noi, și anume:

„Halucinațiile” și fabricațiile, inclusiv erorile factuale, sunt unele dintre cele mai persistente probleme care apar deja cu soluțiile de chatbot bazate pe inteligența artificială generativă. Datele de antrenament pot duce la răspunsuri părtinitoare, neadecvate sau greșite, dar acestea pot fi dificil de identificat, în special în contextul în care soluțiile devin tot mai credibile și sunt tot mai mult utilizate.

Deepfake-urile, atunci când inteligența artificială generativă este utilizată pentru crearea de conținut cu intenții malefice, reprezintă un risc semnificativ asociat inteligenței artificiale generative. Aceste imagini false, videoclipuri și înregistrări audio au fost folosite pentru a ataca celebrități și politicieni, pentru a crea și răspândi informații înșelătoare și chiar pentru a crea conturi false sau a prelua și a sparge conturi legitime existente.

Un exemplu recent a fost reprezentat de o imagine generată de inteligența artificială în care Papa Francisc purta o jachetă puf albă și la modă, care a devenit virală pe rețelele sociale. Deși acest exemplu părea inofensiv, a oferit o privire asupra unui viitor în care deepfake-urile creează riscuri semnificative pentru reputație, falsificări, fraude și riscuri politice pentru persoane, organizații și guverne.

Confidențialitatea datelor: Angajații pot expune ușor date sensibile și proprietare ale întreprinderii în interacțiunea cu soluțiile de chatbot bazate pe inteligența artificială generativă. Aceste aplicații pot stoca informațiile capturate prin intermediul introducerii utilizatorilor și pot utiliza chiar aceste informații pentru antrenarea altor modele, compromițând astfel confidențialitatea. În cazul unei încălcări a securității, astfel de informații ar putea ajunge în mâinile greșite.

Probleme de drepturi de autor: Chatbot-urile bazate pe inteligența artificială generativă sunt antrenate pe o cantitate mare de date de pe internet, care pot include materiale protejate prin drepturi de autor. Ca rezultat, unele rezultate pot încălca drepturile de autor sau protecțiile privind proprietatea intelectuală. Fără referințe la surse sau transparență în ceea ce privește modul de generare a rezultatelor, singura modalitate de a reduce acest risc este ca utilizatorii să examineze atent rezultatele pentru a se asigura că nu încalcă drepturile de autor sau drepturile de proprietate intelectuală.

Îngrijorări privind securitatea cibernetică: Pe lângă amenințările mai avansate de manipulare socială și phishing, atacatorii ar putea utiliza aceste instrumente pentru a genera mai ușor coduri malitioase. Furnizorii care oferă modele fundamentale de inteligență artificială generativă asigură clienții că antrenează modelele lor pentru a respinge cereri malitioase de securitate cibernetică; totuși, ei nu oferă utilizatorilor instrumentele necesare pentru a evalua eficient toate controalele de securitate implementate.

Furnizorii pun, de asemenea, un mare accent pe abordările de „red teaming”. Aceste afirmații presupun că utilizatorii trebuie să aibă încredere deplină în abilitățile furnizorilor de a atinge obiectivele de securitate.

Vicepreședintele analist al Gartner îndeamnă dezvoltatorii de AI să colaboreze ”urgent cu factorii de decizie, inclusiv cu noile autorități de reglementare care pot apărea, pentru a stabili politici și practici pentru supravegherea și gestionarea riscurilor AI generative”.

Aceasta a mai menționat că există două abordări generale în exploatarea ChatGPT și a aplicațiilor similare. Utilizarea modelului așa cum este oferă aceste servicii fără personalizare directă. Abordarea bazată pe ingineria prompt-urilor utilizează instrumente pentru a crea, ajusta și evalua intrările și ieșirile prompt-urilor.

Analistul recomandă organizațiilor să implementeze revizuiri manuale ale tuturor rezultatelor modelului pentru a detecta rezultate incorecte, neinformate sau cu prejudecăți. ”Este important să se stabilească un cadru de guvernanță și conformitate pentru utilizarea acestor soluții în cadrul întreprinderii, inclusiv politici clare care interzic angajaților să formuleze întrebări care expun date sensibile organizației sau personale”.

”Organizațiile ar trebui să monitorizeze utilizările neautorizate ale ChatGPT și a soluțiilor similare cu ajutorul controalelor de securitate existente și a tablourilor de bord pentru a detecta încălcările de politică. De exemplu, firewall-urile pot bloca accesul utilizatorilor din cadrul întreprinderii, sistemele de gestionare a informațiilor și evenimentelor de securitate pot monitoriza jurnalele de evenimente pentru a depista încălcările, iar gateway-urile web securizate pot monitoriza apelurile API interzise”, continuă aceasta.

În plus, pentru utilizarea bazată pe ingineria prompt-urilor, trebuie să se ia măsuri pentru a proteja datele interne și alte date sensibile utilizate pentru a crea prompt-uri pe infrastructura unor terți. ”Prompt-urile create și stocate pot fi considerate active imutabile. Aceste active pot reprezenta prompt-uri inginerite verificate, care pot fi utilizate în siguranță”.

Te-ar mai putea interesa și
Economia germană va pierde anul acesta 49 de miliarde de euro din cauza insuficienței forței de muncă
Economia germană va pierde anul acesta 49 de miliarde de euro din cauza insuficienței forței de muncă
Economia Germaniei va pierde anul acesta circa 49 de miliarde de euro pe care companiile le-ar putea obţine dacă criză de forţă de muncă specializată nu le-ar afecta producţia, potrivit unui......
BNS: Aproape 70% din finanţarea serviciilor medicale,pentru 16 milioane de persoane,este asigurată de sub 6 milione de angajaţi
BNS: Aproape 70% din finanţarea serviciilor medicale,pentru 16 milioane de persoane,este asigurată de sub 6 milione de ...
Un număr de sub şase milioane de angajaţi români plătesc 10% din veniturile obţinute, pentru a asigura servicii medicale ...
AEP: Au fost înregistrați 1.663 de mandatari financiari ai competitorilor electorali
AEP: Au fost înregistrați 1.663 de mandatari financiari ai competitorilor electorali
Autoritatea Electorală Permanentă (AEP) informează că, la alegerile pentru membrii din România în Parlamentul European ...
Lucian Condruz, Lenovo: România s-a clasat pe al doilea loc în Europa ca vânzări de laptop-uri de gaming în 2023. Puterea de cumpărare este încă scăzută și românii cumpără un PC sau laptop ”bun la toate”
Lucian Condruz, Lenovo: România s-a clasat pe al doilea loc în Europa ca vânzări de laptop-uri de gaming în 2023. Puterea ...
România a ocupat locul al doilea pe piața de gaming din Europa, ca vânzări de PC-uri și laptop-uri cu o cotă de piață, ...