Svéd Miniszterelnök Kritikával Illetik, Hogy a ChatGPT-t Használja a Kormányzati Döntésekben

Image by Dr. Frank Gaeth, from Wikimedia Commons

Svéd Miniszterelnök Kritikával Illetik, Hogy a ChatGPT-t Használja a Kormányzati Döntésekben

Olvasási idő: 2 perc

A svéd miniszterelnök, Ulf Kristersson kritikával néz szembe, miután beismerte, hogy a ChatGPT-t használja ötletek generálására a kormányzati döntésekhez.

Siet? Íme a legfontosabb tények:

  • A svéd miniszterelnök beismeri, hogy a ChatGPT-t használja politikai döntéshozatalban.
  • Szóvivője azt állítja, hogy nem osztanak meg érzékeny adatokat az AI eszközökkel.
  • A kritikusok szerint az AI használata a kormányzatban veszélyes és antidemokratikus.

A svéd miniszterelnök, Ulf Kristersson egyre növekvő közfelháborodással szembesül, miután nyilvánosságra hozta, hogy a hivatalos döntéshozatali folyamatában a ChatGPT és a LeChat alkalmazásokat is igénybe veszi.

“Én magam is gyakran használom. Ha másért nem, akkor második véleményért,” – mondta Kristersson, ahogy azt a The Guardian jelentette. “Mit tettek mások? És gondolkozzunk-e teljesen az ellenkezőjén? Ilyen típusú kérdések.”

Nyilatkozata heves visszhangot váltott ki, az Aftonbladet azzal vádolta meg, hogy bedőlt “az oligarchák AI pszichózisának”, ahogy azt a The Guardian jelentette. A kritikusok szerint politikai döntésekre hagyatkozni az AI-re mind felelőtlen, mind antidemokratikus.

“Követelnünk kell, hogy a megbízhatóság garantált legyen. Nem a ChatGPT-re szavaztunk,” mondta Virginia Dignum, a felelősségteljes AI professzora az Umeåi Egyetemen.

Kristersson szóvivője, Tom Samuelsson, lekicsinylően nyilatkozott a vitáról, azt mondva: “Természetesen nem biztonsági érzékeny információ kerül oda. Inkább csak egy közelítő érték,” ahogy a The Guardian beszámolt róla.

De a technológiai szakértők szerint a kockázatok túlmutatnak az adatérzékenységen. A Karlstad Egyetem professzora, Simone Fischer-Hübner azt javasolja, hogy ne használjuk a ChatGPT-t és hasonló eszközöket hivatalos munkafeladatokra, ahogy azt a Guardian is megjegyezte.

Az AI kutató, David Bau figyelmeztetett arra, hogy az AI modellek manipulálhatók. “Bemutatták egy olyan módszert, amellyel az emberek a saját rejtett napirendjüket csempészhetik be a tréning adatokba, amit nagyon nehéz észrevenni.” A kutatás szerint 95%-os sikerrátával tévútra lehet terelni az AI rendszereket memória injekcióval vagy “Rules File Backdoor” támadásokkal, ami felveti a láthatatlan beavatkozás lehetőségét a politikai döntéshozatalban.

További veszélyek adódhatnak az AI demokráciát aláásó potenciáljából. Egy nemrégiben közzétett tanulmány figyelmeztet arra, hogy az AI rendszerek a törvénybetartási szervekben koncentrálják a hatalmat, csökkentik a felügyeletet, és elősegíthetik az autoriter rendszerek kialakulását.

Tetszett ez a cikk? Értékelje!
Utáltam Nem igazán tetszik nekem Rendben volt Nagyon jó! Imádtam!

Örülünk, hogy tetszett a munkánk!

Értékes olvasóként írnál rólunk véleményt a Trustpilotra? Csak pár perc, és a világot jelentené számunkra. Köszönjük, hogy ilyen szuper vagy!

Értékelj minket a Trustpiloton
0 0 felhasználó szavazott
Cím
Hozzászólás
Köszönjük visszajelzését