Premierul suedez criticat pentru utilizarea ChatGPT în luarea deciziilor guvernamentale

Image by Dr. Frank Gaeth, from Wikimedia Commons

Premierul suedez criticat pentru utilizarea ChatGPT în luarea deciziilor guvernamentale

Timp de citire: 2 min

Prim-ministrul suedez Ulf Kristersson s-a confruntat cu critici după ce a recunoscut că a folosit ChatGPT pentru a genera idei pentru deciziile guvernamentale.

Grăbit? Iată faptele esențiale:

  • Premierul suedez recunoaște că a folosit ChatGPT pentru luarea deciziilor politice.
  • Purtătorul său de cuvânt susține că nu sunt împărtășite date sensibile cu instrumentele AI.
  • Criticii spun că utilizarea AI în guvern este periculoasă și nedemocratică.

Primul Ministru suedez Ulf Kristersson se confruntă cu o reacție negativă tot mai mare din partea publicului, după ce a dezvăluit că își folosește practica de a folosi ChatGPT și LeChat pentru a-și asista procesul oficial de luare a deciziilor.

„Eu însămi o folosesc destul de des. Dacă nu pentru altceva, măcar pentru o a doua opinie”, a declarat Kristersson, conform The Guardian. „Ce au făcut alții? Și ar trebui să gândim complet opus? Genul acesta de întrebări.”

Declarația sa a stârnit reacții negative, Aftonbladet acuzându-l că a căzut pradă „psihozei AI a oligarhilor”, așa cum a raportat The Guardian. Criticii susțin că a te baza pe AI pentru judecata politică este atât iresponsabil, cât și nedemocratic.

„Trebuie să cerem ca fiabilitatea să poată fi garantată. Nu am votat pentru ChatGPT,” a declarat Virginia Dignum, profesoară de AI responsabilă la Universitatea Umeå.

Purtătorul de cuvânt al lui Kristersson, Tom Samuelsson, a minimalizat controversa, declarând: „Evident, nu sunt informații sensibile din punct de vedere al securității care ajung acolo. Este folosit mai mult ca un punct de referință,” așa cum a relatat The Guardian.

Dar experții în tehnologie susțin că riscurile depășesc sensibilitatea datelor. Profesoara de la Universitatea Karlstad, Simone Fischer-Hübner, sfătuiește împotriva utilizării ChatGPT și a uneltelor similare pentru sarcini de muncă oficiale, așa cum a fost menționat de The Guardian.

Cercetătorul în IA, David Bau, a avertizat că modelele de AI pot fi manipulate. „Ei au arătat o metodă prin care oamenii pot strecura propriile lor agende ascunse în datele de antrenament, care ar fi foarte greu de detectat.” Cercetările arată un procent de succes de 95% în înșelarea sistemelor AI folosind injecții de memorie sau atacuri de tip „Rules File Backdoor„, crescând temerile privind interferența invizibilă în procesul de luare a deciziilor politice.

Riscuri suplimentare vin din potențialul IA de a eroda democrația. Un studiu recent avertizează că sistemele de IA în aplicarea legii concentrează puterea, reduc supravegherea și pot promova autoritarismul.

V-a plăcut acest articol?
Acordați-i o notă!
Nu mi-a plăcut deloc Nu prea mi-a plăcut A fost ok Destul de bun! Mi-a plăcut mult!

Ne bucurăm că ți-a plăcut munca noastră!

Pentru că prețuim părerea ta, ne-ai putea lăsa o recenzie pe Trustpilot? Durează doar un moment și face o mare diferență pentru noi. Îți mulțumim pentru sprijin!

Oferă-ne o notă pe Trustpilot
0 Votat de 0 utilizatori
Titlu
Comentariu
Vă mulțumim pentru feedback