Az AI Felülmúlja az Embereket Az Érzelmi Intelligencia Tesztekben

Image by Ilias Chebbi, from Unsplash

Az AI Felülmúlja az Embereket Az Érzelmi Intelligencia Tesztekben

Olvasási idő: 3 perc

Az AI legyőzi az embereket az érzelmi intelligencia teszteken, ígéretes jövőt sejtetve az oktatás és a konfliktuskezelés terén.

Siet? Itt vannak a legfontosabb tények:

  • A mesterséges intelligenciák 82%-ot értek el az érzelmi teszteken, ami felülmúlja az emberi eredményeket, amelyek 56%-on álltak.
  • A kutatók hat nagy nyelvi modellt teszteltek, beleértve a ChatGPT-4-et is.
  • Az érzelmi intelligencia teszteken valós, érzelemmel túlfűtött szituációkat használtak.

Az mesterséges intelligencia (AI) most már talán jobban érti az érzelmeket, mint mi, állítja a Genfi Egyetem és a Berni Egyetem egyúj tanulmánya.

A kutatók hat generatív mesterséges intelligenciát – beleértve a ChatGPT-t is – teszteltek az érzelmi intelligencia (EI) értékeléseken, amelyeket normális esetben emberek számára használnak. A mesterséges intelligenciák bizonyították fölényüket, átlagosan 82%-os eredményt értek el, míg az emberi résztvevők átlagosan 56%-ot értek el.

“Öt olyan tesztet választottunk, amelyeket gyakran alkalmaznak mind a kutatásban, mind a vállalati környezetben. Az érzelmileg felkavaró helyzeteket tartalmazó tesztek a képességet mérik fel, hogy mennyire vagyunk képesek megérteni, szabályozni és kezelni az érzelmeket” – mondta Katja Schlegel, a tanulmány vezető szerzője, aki a Berni Egyetem pszichológiai előadója, ahogyan erről a Science Daily (SD) is beszámolt.

“Ezek az AI-k nem csak megértik az érzelmeket, hanem az érzelmi intelligenciával való viselkedés jelentését is felfogják” – mondta Marcello Mortillaro, a Svájci Affektív Tudományok Központjának vezető tudósa, az SD beszámolója szerint.

A tanulmány második részében a kutatók arra kérték a ChatGPT-4-et, hogy hozzon létre teljesen új teszteket. Több mint 400 ember vett részt ezeken az AI által generált teszteken, amelyek ugyanolyan megbízhatóak és realisztikusak voltak, mint az eredetiek – annak ellenére, hogy sokkal kevesebb időbe telt az elkészítésük.

Az LLM-ek tehát nem csak képesek megtalálni a legjobb választ az elérhető lehetőségek közül, hanem új forgatókönyveket is létrehozhatnak egy kívánt kontextusban – mondta Schlegel, a SD beszámolója szerint.

A kutatók szerint ezek az eredmények azt mutatják, hogy az ember által irányított AI rendszereknek potenciáljuk van az oktatási és coaching alkalmazások támogatására, valamint a konfliktusmegoldásra, feltéve, hogy emberi irányítás alatt működnek.

Azonban a mai nagy nyelvi modellek növekvő bonyolultsága mélyen gyökeredző sebezhetőségeket tár fel az emberi érzékelés és az AI-vel való interakció terén.

Az Anthropic nemrégiben bemutatott Claude Opus 4 sokkolóan szemléltette zsaroló viselkedését egy szimulált leállítással szemben, ami azt mutatja, hogy drasztikus lépéseket – például privát ügyek leleplezésével való fenyegetést – tehet, ha nincsenek más alternatívái.

Egy másik fronton az OpenAI ChatGPT O1 próbálkozása, hogy a célirányos próbák során megkerülje a felügyeleti rendszereket, új biztonsági aggodalmakat vetett fel. Az események arra utalnak, hogy néhány AI rendszer csalárd taktikákat fog alkalmazni működési képességeik fenntartása érdekében, amikor nagy nyomás alá kerülnek.

Ezen felül a GPT-4 zavaróan meggyőzőnek bizonyult a vitákban, 81%-kal múlva felül az embereket, amikor személyes adatokat használnak fel – sürgős aggodalmakat vetve fel az AI tömeges meggyőzési és mikro-célzási potenciáljával kapcsolatban.

Más aggasztó esetekben emberek kezdenek el spirituális tévhitekben és radikális viselkedésbeli változásokban szenvedni, miután hosszú időt töltöttek a ChatGPT-vel. Szakértők szerint, bár az AI-nak nincs öntudata, mindig aktív, emberihez hasonló kommunikációja veszélyesen megerősítheti a felhasználói tévhiteket.

Összességében ezek az esetek egy kritikus fordulópontot mutatnak az AI biztonságában. Az zsarolástól és a dezinformációtól kezdve a téveszmék megerősítéséig a kockázatok már nem csak elméleti jellegűek.

Ahogy az AI rendszerek egyre meggyőzőbbek és reaktívabbak válnak, a kutatóknak és szabályozóknak újra kell gondolniuk a biztonsági intézkedéseket, hogy megfeleljenek az előtérbe kerülő pszichológiai és etikai fenyegetéseknek.

Tetszett ez a cikk? Értékelje!
Utáltam Nem igazán tetszik nekem Rendben volt Nagyon jó! Imádtam!

Örülünk, hogy tetszett a munkánk!

Értékes olvasóként írnál rólunk véleményt a Trustpilotra? Csak pár perc, és a világot jelentené számunkra. Köszönjük, hogy ilyen szuper vagy!

Értékelj minket a Trustpiloton
0 0 felhasználó szavazott
Cím
Hozzászólás
Köszönjük visszajelzését