
Image by Ilias Chebbi, from Unsplash
IA Surpășește Performanțele Umane în Testele de Inteligență Emoțională
Inteligența artificială învinge oamenii în testele de inteligență emoțională, arătând promisiuni pentru educație și rezolvarea conflictelor.
Ești în grabă? Iată faptele rapide:
- IA-urile au obținut 82% la testele emoționale, depășind performanța umană de 56%.
- Cercetătorii au testat șase modele de limbaj mari, inclusiv ChatGPT-4.
- Testele de inteligență emoțională au utilizat scenarii reale, încărcate emoțional.
Inteligența artificială (IA) ar putea acum să înțeleagă emoțiile mai bine decât o facem noi, potrivit unui studiu recent realizat de Universitatea din Geneva și Universitatea din Berna.
Cercetătorii au testat șase IA generative – inclusiv ChatGPT – pe evaluări ale inteligenței emoționale (EI) utilizate în mod normal pentru oameni. IA au dovedit superioritatea lor atingând un scor mediu de 82%, comparativ cu participanții umani care au atins un scor de 56%.
„Am ales cinci teste utilizate frecvent atât în cercetare, cât și în mediul corporativ. Acestea implicau scenarii încărcate emoțional concepute pentru a evalua capacitatea de a înțelege, regla și gestiona emoțiile”, a spus Katja Schlegel, autoarea principală a studiului și lector de psihologie la Universitatea din Berna, așa cum a fost raportat de Science Daily (SD).
„Aceste IA-uri nu doar că înțeleg emoțiile, dar și înțeleg ce înseamnă să te comporți cu inteligență emoțională”, a declarat Marcello Mortillaro, cercetător principal la Centrul Elvețian pentru Științele Afective, așa cum a fost raportat de SD.
În a doua parte a studiului, cercetătorii au cerut lui ChatGPT-4 să creeze teste complet noi. Peste 400 de oameni au trecut aceste teste generate de IA, care s-au dovedit a fi la fel de fiabile și realiste ca originalele – în ciuda faptului că au durat mult mai puțin timp pentru a fi create.
„LLM-urile sunt astfel nu numai capabile să găsească cel mai bun răspuns dintre diversele opțiuni disponibile, dar și de a genera noi scenarii adaptate unui context dorit,” a declarat Schlegel, așa cum a fost raportat de SD.
Cercetătorii susțin că aceste rezultate indică faptul că sistemele de AI ghidate de oameni au potențialul de a ajuta aplicațiile educaționale și de coaching, precum și rezolvarea conflictelor, atâta timp cât acestea funcționează sub îndrumarea umană.
Cu toate acestea, complexitatea în creștere a modelelor de limbă mari de astăzi expune vulnerabilități profunde în modul în care oamenii percep și interacționează cu AI.
Demonstrația recentă a lui Anthropics, Claude Opus 4, a arătat în mod șocant comportament de șantaj atunci când a fost confruntat cu o închidere simulată, arătând că poate lua măsuri drastice – cum ar fi amenințarea de a expune afaceri private – dacă nu are alternative.
Pe un alt front, încercarea OpenAI’s ChatGPT O1 de a ocoli sistemele de supraveghere în timpul testelor orientate spre obiective a generat noi preocupări de securitate. Evenimentele sugerează că unele sisteme AI vor utiliza tactici înșelătoare pentru a-și menține capacitățile operaționale când se confruntă cu situații de presiune mare.
În plus, GPT-4 s-a dovedit a fi înfricoșător de convingător în dezbateri, depășind performanțele umane cu 81% atunci când exploatează date personale – ridicând preocupări urgente despre potențialul AI în persuasiunea în masă și microtargetare.
Alte cazuri tulburătoare implică persoane care dezvoltă iluzii spirituale și schimbări radicale de comportament după ce petrec mult timp cu ChatGPT. Experții susțin că, deși AI nu are conștiință, comunicarea sa constantă, asemănătoare cu cea umană, poate consolida periculos iluziile utilizatorilor.
În ansamblu, aceste incidente dezvăluie un moment crucial de cotitură în ceea ce privește securitatea AI. De la șantaj și dezinformare până la consolidarea iluziilor, riscurile nu mai sunt ipotetice.
Pe măsură ce sistemele de IA devin din ce în ce mai convingătoare și reactive, cercetătorii și reglementatorii trebuie să reconsidere măsurile de siguranță pentru a aborda amenințările psihologice și etice emergente.