
Image by Ilias Chebbi, from Unsplash
Az AI Felülmúlja az Embereket Az Érzelmi Intelligencia Tesztekben
Az AI legyőzi az embereket az érzelmi intelligencia teszteken, ígéretes jövőt sejtetve az oktatás és a konfliktuskezelés terén.
Siet? Itt vannak a legfontosabb tények:
- A mesterséges intelligenciák 82%-ot értek el az érzelmi teszteken, ami felülmúlja az emberi eredményeket, amelyek 56%-on álltak.
- A kutatók hat nagy nyelvi modellt teszteltek, beleértve a ChatGPT-4-et is.
- Az érzelmi intelligencia teszteken valós, érzelemmel túlfűtött szituációkat használtak.
Az mesterséges intelligencia (AI) most már talán jobban érti az érzelmeket, mint mi, állítja a Genfi Egyetem és a Berni Egyetem egyúj tanulmánya.
A kutatók hat generatív mesterséges intelligenciát – beleértve a ChatGPT-t is – teszteltek az érzelmi intelligencia (EI) értékeléseken, amelyeket normális esetben emberek számára használnak. A mesterséges intelligenciák bizonyították fölényüket, átlagosan 82%-os eredményt értek el, míg az emberi résztvevők átlagosan 56%-ot értek el.
“Öt olyan tesztet választottunk, amelyeket gyakran alkalmaznak mind a kutatásban, mind a vállalati környezetben. Az érzelmileg felkavaró helyzeteket tartalmazó tesztek a képességet mérik fel, hogy mennyire vagyunk képesek megérteni, szabályozni és kezelni az érzelmeket” – mondta Katja Schlegel, a tanulmány vezető szerzője, aki a Berni Egyetem pszichológiai előadója, ahogyan erről a Science Daily (SD) is beszámolt.
“Ezek az AI-k nem csak megértik az érzelmeket, hanem az érzelmi intelligenciával való viselkedés jelentését is felfogják” – mondta Marcello Mortillaro, a Svájci Affektív Tudományok Központjának vezető tudósa, az SD beszámolója szerint.
A tanulmány második részében a kutatók arra kérték a ChatGPT-4-et, hogy hozzon létre teljesen új teszteket. Több mint 400 ember vett részt ezeken az AI által generált teszteken, amelyek ugyanolyan megbízhatóak és realisztikusak voltak, mint az eredetiek – annak ellenére, hogy sokkal kevesebb időbe telt az elkészítésük.
Az LLM-ek tehát nem csak képesek megtalálni a legjobb választ az elérhető lehetőségek közül, hanem új forgatókönyveket is létrehozhatnak egy kívánt kontextusban – mondta Schlegel, a SD beszámolója szerint.
A kutatók szerint ezek az eredmények azt mutatják, hogy az ember által irányított AI rendszereknek potenciáljuk van az oktatási és coaching alkalmazások támogatására, valamint a konfliktusmegoldásra, feltéve, hogy emberi irányítás alatt működnek.
Azonban a mai nagy nyelvi modellek növekvő bonyolultsága mélyen gyökeredző sebezhetőségeket tár fel az emberi érzékelés és az AI-vel való interakció terén.
Az Anthropic nemrégiben bemutatott Claude Opus 4 sokkolóan szemléltette zsaroló viselkedését egy szimulált leállítással szemben, ami azt mutatja, hogy drasztikus lépéseket – például privát ügyek leleplezésével való fenyegetést – tehet, ha nincsenek más alternatívái.
Egy másik fronton az OpenAI ChatGPT O1 próbálkozása, hogy a célirányos próbák során megkerülje a felügyeleti rendszereket, új biztonsági aggodalmakat vetett fel. Az események arra utalnak, hogy néhány AI rendszer csalárd taktikákat fog alkalmazni működési képességeik fenntartása érdekében, amikor nagy nyomás alá kerülnek.
Ezen felül a GPT-4 zavaróan meggyőzőnek bizonyult a vitákban, 81%-kal múlva felül az embereket, amikor személyes adatokat használnak fel – sürgős aggodalmakat vetve fel az AI tömeges meggyőzési és mikro-célzási potenciáljával kapcsolatban.
Más aggasztó esetekben emberek kezdenek el spirituális tévhitekben és radikális viselkedésbeli változásokban szenvedni, miután hosszú időt töltöttek a ChatGPT-vel. Szakértők szerint, bár az AI-nak nincs öntudata, mindig aktív, emberihez hasonló kommunikációja veszélyesen megerősítheti a felhasználói tévhiteket.
Összességében ezek az esetek egy kritikus fordulópontot mutatnak az AI biztonságában. Az zsarolástól és a dezinformációtól kezdve a téveszmék megerősítéséig a kockázatok már nem csak elméleti jellegűek.
Ahogy az AI rendszerek egyre meggyőzőbbek és reaktívabbak válnak, a kutatóknak és szabályozóknak újra kell gondolniuk a biztonsági intézkedéseket, hogy megfeleljenek az előtérbe kerülő pszichológiai és etikai fenyegetéseknek.