Tanulmány figyelmeztet: az AI fokozhatja a közösségi média polarizációját
A mesterséges intelligencia felpörgetheti a polarizációt a közösségi médiában, figyelmeztetnek a Concordia kutatói és diákok, ami aggodalmakat vet fel a szabad véleménynyilvánítás, és a dezinformáció terén.
Siet? Íme a legfontosabb tények:
- Az AI algoritmusok csak a követők számát és a legutóbbi bejegyzéseket felhasználva terjeszthetik a megosztottságot.
- A megerősítéses tanulású botok gyorsan alkalmazkodnak a közösségi média sebezhetőségeinek kihasználásához.
- A szakértők figyelmeztetnek: a platformok kockáztatják a cenzúrát vagy a korlátlanul ellenőrizetlen manipulációt.
Bár a polarizáció a közösségi médiában nem új jelenség, a Concordia Egyetem kutatói és diákaktivistái figyelmeztetnek, hogy a mesterséges intelligencia jóval súlyosbíthatja a problémát.
“Az történik, hogy nem a történésekről készült felvételeket vagy a tudósítók anyagait láthatjuk, hanem a túldramatizált mesterséges intelligencia által készített művészeti alkotásokat, amelyekkel politikailag foglalkoznunk kellene […] Ez igazán elidegeníti az embereket és eltünteti a felelősséget” – mondta Danna Ballantyne, a Concordia Diákszövetség külső ügyekért és mozgósításért felelős koordinátora, ahogy a The Link is beszámolt róla.
Ballantyne aggodalmai megegyeznek a Concordia egyetem legújabb kutatásának eredményeivel, ahol Rastko R. Selmic professzor és Mohamed N. Zareer PhD-hallgató bemutatták, hogy a megerősítéses tanulással működő botok hogyan szítják a megosztottságot az interneten. “Célunk az volt, hogy megértsük, milyen határt szab a mesterséges intelligencia a polarizációnak és a közösségi média hálózatoknak, és szimuláljuk azt […] hogy mérni tudjuk, hogyan alakulhat ki ez a polarizáció és egyet nem értés.” – mondta Zareer, ahogy a The Link beszámolt róla.
Az eredmények azt sugallják, hogy az algoritmusoknak nincs szükségük privát adatokra a megosztás keltéséhez, ahol az alapvető jelzések, mint a követők száma és a legutóbbi bejegyzések elegendőek. “Aggasztó, mert [bár] nem egy egyszerű robot, mégis egy olyan algoritmus, amit létrehozhatsz a számítógépeden […] És ha elegendő számítási kapacitásod van, egyre több hálózatot befolyásolhatsz” – magyarázta Zareer a The Linknek.
Ez tükrözi a szélesebb kutatási eredményeket, amelyek azt mutatják, hogyan lehet a megerősítő tanulást fegyverként használni a közösségek szétosztására. A Concordia által végzett tanulmány a Double-Deep Q-tanulást használta, és kimutatta, hogy az ellenséges AI ügynökök “rugalmassan alkalmazkodhatnak a hálózaton belüli változásokhoz, lehetővé téve, hogy hatékonyan kihasználják a strukturális sebezhetőségeket és fokozzák a felhasználók közötti megosztottságot”, ahogy a kutatás megjegyezte.
Valóban, a Dupla-Mély Q-tanulás egy mesterséges intelligencia technika, ahol egy bot optimális cselekvéseket tanul meg kísérletezéssel és hibával. Mély neurális hálózatokat használ, hogy kezelje a komplex problémákat, és két értékbecslést használ, hogy elkerülje a jutalmak túlbecslését. A közösségi média területén képes stratégiai módon terjeszteni a tartalmat minimális adatokkal, hogy maximalizálja a polarizációt.
Zareer figyelmeztetett, hogy a politikai döntéshozók nehéz egyensúlyozó munka előtt állnak. “Finom a vonal a megfigyelés és a cenzúra, valamint a hálózat ellenőrzésének kísérlete között” – mondta a The Linknek. Túl kevés felügyelet lehetővé teszi a botok számára, hogy manipulálják a beszélgetéseket, míg túl sok kockázatot jelenthet a szabad véleménynyilvánítás elnyomásában.
Eközben olyan diákok, mint Ballantyne, attól tartanak, hogy az AI eltörli az élő tapasztalatokat. “Az AI teljesen félreteszi ezt,” mondta a The Linknek.