Studiu avertizează că AI ar putea alimenta la maximum polarizarea pe rețelele de socializare

Studiu avertizează că AI ar putea alimenta la maximum polarizarea pe rețelele de socializare

Timp de citire: 3 min

Inteligența artificială ar putea amplifica polarizarea pe rețelele sociale, avertizează cercetătorii și studenții de la Concordia, ridicând îngrijorări legate de libertatea de exprimare și dezinformare.

Grăbiți? Iată faptele esențiale:

  • Algoritmii AI pot alimenta diviziunea folosind doar numărul de urmăritori și postările recente.
  • Roboții de învățare prin întărire se adaptează rapid pentru a exploata vulnerabilitățile rețelelor sociale.
  • Experții avertizează că platformele riscă fie cenzura, fie manipularea necontrolată.

Deși polarizarea pe rețelele de socializare nu este ceva nou, cercetătorii și activiștii studenți de la Universitatea Concordia avertizează că inteligența artificială ar putea agrava mult mai mult problema.

„În loc să ni se arate imagini cu ceea ce se întâmplă sau conținut de la jurnaliștii care raportează despre aceasta, vedem în schimb arta AI exagerat dramatizată a lucrurilor care ar trebui să ne preocupe politic […] Acest lucru îndepărtează oamenii și elimină responsabilitatea”, a declarat Danna Ballantyne, coordonatoarea pentru afaceri externe și mobilizare a Uniunii Studenților de la Concordia, așa cum a fost raportat de The Link.

Preocupările ei fac ecoul unei noi cercetări de la Concordia, unde profesorul Rastko R. Selmic și studentul la doctorat Mohamed N. Zareer au arătat cum botii cu învățare prin întărire pot alimenta diviziunea online. „Scopul nostru a fost să înțelegem ce prag poate avea inteligența artificială asupra polarizării și rețelelor de social media și să o simulăm […] pentru a măsura cum poate apărea această polarizare și dezacord.” a spus Zareer, așa cum a fost raportat de The Link.

Rezultatele sugerează că algoritmii nu au nevoie de date private pentru a stârni diviziuni, unde semnale de bază precum numărul urmăritorilor și postările recente sunt suficiente. „Este îngrijorător, pentru că [deși] nu este un simplu robot, este totuși un algoritm pe care îl poți crea pe computerul tău […] Și când ai suficientă putere de calcul, poți afecta tot mai multe rețele”, a explicat Zareer pentru The Link.

Acest lucru reflectă un corp mai larg de cercetări care arată cum învățarea prin întărire poate fi folosită pentru a împinge comunitățile la distanță. Studiul realizat de Concordia a folosit Double-Deep Q-learning și a demonstrat că agenții AI adversariali pot „să se adapteze flexibil la schimbările din rețea, permițându-i să exploateze eficient vulnerabilitățile structurale și să amplifice diviziunile între utilizatori”, așa cum a notat cercetarea.

Într-adevăr, Double-Deep Q-learning este o tehnică AI în care un bot învață acțiuni optime prin încercare și eroare. Folosește rețele neuronale adânci pentru a gestiona probleme complexe și două estimări de valoare pentru a evita supraestimarea recompenselor. În social media, poate răspândi strategic conținut pentru a crește polarizarea cu date minime.

Zareer a avertizat că decidenții se confruntă cu un echilibru dificil. „Există o linie fină între monitorizare și cenzură și încercarea de a controla rețeaua”, a declarat el pentru The Link. Supravegherea insuficientă permite botilor să manipuleze conversațiile, în timp ce prea multă poate risca să suprime libertatea de exprimare.

Între timp, studenții precum Ballantyne se tem că AI șterge experiența de viață. „AI anulează complet asta,” a declarat ea pentru The Link.

V-a plăcut acest articol?
Acordați-i o notă!
Nu mi-a plăcut deloc Nu prea mi-a plăcut A fost ok Destul de bun! Mi-a plăcut mult!

Ne bucurăm că ți-a plăcut munca noastră!

Pentru că prețuim părerea ta, ne-ai putea lăsa o recenzie pe Trustpilot? Durează doar un moment și face o mare diferență pentru noi. Îți mulțumim pentru sprijin!

Oferă-ne o notă pe Trustpilot
0 Votat de 0 utilizatori
Titlu
Comentariu
Vă mulțumim pentru feedback