
Image by Dr. Frank Gaeth, from Wikimedia Commons
Premierul suedez criticat pentru utilizarea ChatGPT în luarea deciziilor guvernamentale
Prim-ministrul suedez Ulf Kristersson s-a confruntat cu critici după ce a recunoscut că a folosit ChatGPT pentru a genera idei pentru deciziile guvernamentale.
Grăbit? Iată faptele esențiale:
- Premierul suedez recunoaște că a folosit ChatGPT pentru luarea deciziilor politice.
- Purtătorul său de cuvânt susține că nu sunt împărtășite date sensibile cu instrumentele AI.
- Criticii spun că utilizarea AI în guvern este periculoasă și nedemocratică.
Primul Ministru suedez Ulf Kristersson se confruntă cu o reacție negativă tot mai mare din partea publicului, după ce a dezvăluit că își folosește practica de a folosi ChatGPT și LeChat pentru a-și asista procesul oficial de luare a deciziilor.
„Eu însămi o folosesc destul de des. Dacă nu pentru altceva, măcar pentru o a doua opinie”, a declarat Kristersson, conform The Guardian. „Ce au făcut alții? Și ar trebui să gândim complet opus? Genul acesta de întrebări.”
Declarația sa a stârnit reacții negative, Aftonbladet acuzându-l că a căzut pradă „psihozei AI a oligarhilor”, așa cum a raportat The Guardian. Criticii susțin că a te baza pe AI pentru judecata politică este atât iresponsabil, cât și nedemocratic.
„Trebuie să cerem ca fiabilitatea să poată fi garantată. Nu am votat pentru ChatGPT,” a declarat Virginia Dignum, profesoară de AI responsabilă la Universitatea Umeå.
Purtătorul de cuvânt al lui Kristersson, Tom Samuelsson, a minimalizat controversa, declarând: „Evident, nu sunt informații sensibile din punct de vedere al securității care ajung acolo. Este folosit mai mult ca un punct de referință,” așa cum a relatat The Guardian.
Dar experții în tehnologie susțin că riscurile depășesc sensibilitatea datelor. Profesoara de la Universitatea Karlstad, Simone Fischer-Hübner, sfătuiește împotriva utilizării ChatGPT și a uneltelor similare pentru sarcini de muncă oficiale, așa cum a fost menționat de The Guardian.
Cercetătorul în IA, David Bau, a avertizat că modelele de AI pot fi manipulate. „Ei au arătat o metodă prin care oamenii pot strecura propriile lor agende ascunse în datele de antrenament, care ar fi foarte greu de detectat.” Cercetările arată un procent de succes de 95% în înșelarea sistemelor AI folosind injecții de memorie sau atacuri de tip „Rules File Backdoor„, crescând temerile privind interferența invizibilă în procesul de luare a deciziilor politice.
Riscuri suplimentare vin din potențialul IA de a eroda democrația. Un studiu recent avertizează că sistemele de IA în aplicarea legii concentrează puterea, reduc supravegherea și pot promova autoritarismul.