
Image by Dr. Frank Gaeth, from Wikimedia Commons
Svéd Miniszterelnök Kritikával Illetik, Hogy a ChatGPT-t Használja a Kormányzati Döntésekben
A svéd miniszterelnök, Ulf Kristersson kritikával néz szembe, miután beismerte, hogy a ChatGPT-t használja ötletek generálására a kormányzati döntésekhez.
Siet? Íme a legfontosabb tények:
- A svéd miniszterelnök beismeri, hogy a ChatGPT-t használja politikai döntéshozatalban.
- Szóvivője azt állítja, hogy nem osztanak meg érzékeny adatokat az AI eszközökkel.
- A kritikusok szerint az AI használata a kormányzatban veszélyes és antidemokratikus.
A svéd miniszterelnök, Ulf Kristersson egyre növekvő közfelháborodással szembesül, miután nyilvánosságra hozta, hogy a hivatalos döntéshozatali folyamatában a ChatGPT és a LeChat alkalmazásokat is igénybe veszi.
“Én magam is gyakran használom. Ha másért nem, akkor második véleményért,” – mondta Kristersson, ahogy azt a The Guardian jelentette. “Mit tettek mások? És gondolkozzunk-e teljesen az ellenkezőjén? Ilyen típusú kérdések.”
Nyilatkozata heves visszhangot váltott ki, az Aftonbladet azzal vádolta meg, hogy bedőlt “az oligarchák AI pszichózisának”, ahogy azt a The Guardian jelentette. A kritikusok szerint politikai döntésekre hagyatkozni az AI-re mind felelőtlen, mind antidemokratikus.
“Követelnünk kell, hogy a megbízhatóság garantált legyen. Nem a ChatGPT-re szavaztunk,” mondta Virginia Dignum, a felelősségteljes AI professzora az Umeåi Egyetemen.
Kristersson szóvivője, Tom Samuelsson, lekicsinylően nyilatkozott a vitáról, azt mondva: “Természetesen nem biztonsági érzékeny információ kerül oda. Inkább csak egy közelítő érték,” ahogy a The Guardian beszámolt róla.
De a technológiai szakértők szerint a kockázatok túlmutatnak az adatérzékenységen. A Karlstad Egyetem professzora, Simone Fischer-Hübner azt javasolja, hogy ne használjuk a ChatGPT-t és hasonló eszközöket hivatalos munkafeladatokra, ahogy azt a Guardian is megjegyezte.
Az AI kutató, David Bau figyelmeztetett arra, hogy az AI modellek manipulálhatók. “Bemutatták egy olyan módszert, amellyel az emberek a saját rejtett napirendjüket csempészhetik be a tréning adatokba, amit nagyon nehéz észrevenni.” A kutatás szerint 95%-os sikerrátával tévútra lehet terelni az AI rendszereket memória injekcióval vagy “Rules File Backdoor” támadásokkal, ami felveti a láthatatlan beavatkozás lehetőségét a politikai döntéshozatalban.
További veszélyek adódhatnak az AI demokráciát aláásó potenciáljából. Egy nemrégiben közzétett tanulmány figyelmeztet arra, hogy az AI rendszerek a törvénybetartási szervekben koncentrálják a hatalmat, csökkentik a felügyeletet, és elősegíthetik az autoriter rendszerek kialakulását.