
Image generated using ChatGPT
Vélemény: AI a hadviselésben—A technológiai ipar csendes eltolódása a csatatér felé
Az önálló fegyverek, a technológiai biztonságpolitikák és az AI etika a hadseregben folytatott vita folyamatos, de az elmúlt napokban fontos fejlemények történtek. Az OpenAI, a DeepSeek és még a Spotify alapítója is bejelentett új megállapodásokat a védelmi technológiák és a stratégiai AI fejlesztésében való együttműködésről a kormányokkal
Az a mesterséges intelligencia hadviselésben való alkalmazása körüli feszültségek az elmúlt napokban fokozódtak. Ebben a hónapban több technológiai cég bejelentette új stratégiai partnerségeit a kormányokkal a védelmi projektek fejlesztésére. És, ahogy az az AI területén gyakran előfordul, az elmúlt hónapokban éles váltás történt a hadseregben és a fegyverek fejlesztésében alkalmazott AI megközelítésében.
Csak néhány nappal ezelőtt az OpenAI és az amerikai kormány bejelentették a 200 millió dolláros megállapodást AI-alapú védelmi eszközök fejlesztésére. A részletek még mindig kevésbé ismertek, a hivatalnokok a “közigazgatási műveleteket” hangsúlyozzák, mint a fő alkalmazást.
Eközben a svéd vállalkozó és a Spotify alapítója, Daniel Ek a német Helsing céget támogatta egy 600 millió eurós befektetési kör vezetésével. A Helsing, amely eredetileg a szoftvertechnológiára összpontosított, most a drónok, tengeralattjárók és repülőgépek fejlesztésébe kezd.
A Reuters nemrégiben felfedte, hogy a DeepSeek segíti Kína katonai és hírszerzési műveleteit. Egy magas rangú amerikai tisztviselő szerint az AI startup segít a kihívások megoldásában az amerikai-kínai kereskedelmi háborúban, és az open-source modelljével segíti a kínai kormányt a megfigyelési műveletekben.
A technológiai óriásvállalatok olyan módon működnek együtt a kormányokkal, ahogyan azt nem szoktuk látni – legalábbis nem ilyen nyilvánosan – és olyan tevékenységekbe kezdtek, amelyek hagyományosan nem voltak része a feladataiknak, mint például a senior tech vezetők belépése az amerikai hadsereg tartalékába.
A Hadsereg 201-es parancsnoksága: Az Executive Innovation Corps egy olyan kezdeményezés, amelynek célja, hogy idősebb technológiai vezetőket toborozzon a Hadsereg tartalékába, mint főtanácsadókat, akik segítenek gyors és skálázható technológiai megoldásokat találni bonyolult problémákra. ⤵️ https://t.co/95LjcCmbYe
— U.S. Army Reserve (@USArmyReserve) 2025. június 24.
Mi történik?
A beszéd megváltozása
A technológiai vállalatok attól a mondatuktól, hogy “Soha nem használnánk mesterséges intelligenciát katonai célokra” egészen odáig jutottak, hogy “Talán csendben töröljük ezt a klauzulát a szabályzatunkból”, majd “Nagyszerű hír, mostantól mesterséges intelligenciával működő fegyvereket építünk a kormánynak!”
Legalábbis így tűnik az éber megfigyelő számára.
Nemrég még úgy tűnt, hogy az AI gigászok büszkék arra, hogy sosem támogatnák a katonai alkalmazásokat, de valami megváltozott. A Google kiváló példa erre.
2017-ben az Amerikai Védelmi Minisztérium elindította a Project Mavent, az Algoritmusi Háborús Keresztműködési Csapatot, ami egy kezdeményezés az AI integrálására a katonai műveletekbe. A Google kezdetben részt vett benne, de a belső tiltakozások – melyeket az alkalmazottak etikai aggályai váltottak ki – arra késztették a céget, hogy ideiglenesen visszalépjen.
Tavaly egy újabb törekvés kerekedett a katonai tevékenységek felé, és majdnem 200 Google DeepMind munkatárs szólította fel a céget, hogy mondjon le a katonai szerződésekről.
„Bármilyen kötődés a katonai és fegyvergyártási tevékenységekhez érinti pozíciónkat az etikus és felelősségteljes AI vezetőiként, és ellentétes küldetésünkkel és kijelentett AI elveinkkel” – írták az aggódó alkalmazottak.
Ezúttal a Google válasza az volt, hogy vár és csendben frissíti az AI etikai irányelveit azáltal, hogy eltávolította azt a részt, ahol azt mondták, hogy soha nem fejlesztenek olyan AI technológiát, amely kárt okozhat. Demis Hassabis, a Google AI vezetője elmagyarázta, hogy csak alkalmazkodnak a világ változásaihoz.
Bár a Google példája szemlélteti az AI és a katonai felhasználás közötti evolúciós kapcsolatot, ez csak egy példa a szélesebb iparági trendre, amely a védelmi célok szolgálatába áll.
Az AI átformálja a katonai és védelmi szektort
A Project Maven indítása, vagy ahogy néhányan nevezik, “amikor az amerikai kormány rájött, hogy a nagy nyelvi modellek rendkívül hasznosak lehetnek a háborúban”, feltárta az egyik okot, amiért az amerikai kormány érdeklődik az AI iránt.
Az AI rendszerek képességei, hogy hatalmas adatmennyiséget dolgozzanak fel, azonosítsanak tárgyakat a csatatéren és elemezzék a képeket, különösen vonzóak a védelmi szektorban.
Felerősített elemzések, emberi képességeken túl
2022 óta mind Ukrajna, mind Oroszország beépíti az AI rendszereket katonai műveleteibe.
Az ukrán kormány technológiai cégekkel kötött partnerséget és több stratégiát alkalmazott a nagy nyelvi modellekben rejlő lehetőségek kiaknázása érdekében. Nemrég 2 millió órányi csatatér felvételt dolgoztak fel – ami 228 évnyi videónak felel meg – hogy katonai folyamatokra képezzék az AI modelleket. Hány emberre lenne szükség, hogy ennyi adatot elemezzenek?
“Ez táplálék az AI számára: Ha tanítani akarsz egy AI-t, 2 millió órányi (videóval) látod el, valami szupernaturálissá válik,” magyarázta az OCHI non-profit digitális rendszer alapítója, Oleksandr Dmitriev. A felvételek optimalizálhatják a fegyverek teljesítményét és segíthetnek a harci taktikák fejlesztésében.
Egy másik AI rendszer, az Avengers, az Ukrajna Védelmi Minisztériumának Innovációs Központja által kifejlesztett AI-alapú hírszerző platform, amely élő videókat dolgoz fel drónokról és hetente akár 12 000 ellenséges egységet is azonosít.
Drónok: Forró árucikk a csatatéren
A harcmezőn lévő drónok – gyakran “gyilkos gépek” néven emlegetve – jelenleg a modern hadviselés legértékesebb technológiái közé tartoznak autonómiájuk, pontosságuk és alacsony költségük miatt. Ezek a robotok lehetővé teszik a háborúzó nemzetek számára, hogy nagy hatású csapásokat mérjenek anélkül, hogy emberi pilótákat kockáztatnának, és mindezt a hagyományos költségek töredékéért.
Az idei év májusára Oroszország több mint 3,000 Veter kamikaze drónt telepített Ukrajnába. Ezek a rendszerek képesek célpontok azonosítására és támadások végrehajtására autonóm módon.
Csak néhány nappal ezelőtt, az ukrán katonák bevetették a Gogol-M drónt, egy “anya-hajó” drónt, amely akár 300 kilométert is meg tud tenni, el tudja szállítani a többi drónt, alacsony magasságban repülve képes elkerülni a radart, és képes átvizsgálni a talajt a maga alatt, hogy észlelje és támadja az ellenséges csapatokat.
A The Guardian szerint, minden támadás, amelyet ezzel a hatalmas drónnal hajtanak végre, körülbelül 10,000 dollárba kerül, míg egy, a kissé elavult technológiát használó rakétarendszer költsége 3 és 5 millió dollár között lenne.
A vadonatúj startup, a Theseus gyorsan begyűjtött 4,3 millió dollárt miután a fiatal alapítói egy bejegyzést osztottak meg az X közösségi média platformon tavaly, melyben azt állították, hogy kevesebb mint 500 dollárért építettek egy drónt, amely képes GPS jel nélkül repülni.
Megterveztük, 3D-nyomtatásban elkészítettünk és összeraktunk egy <$500 értékű drónt, ami kamera + Google térképek segítségével számolja ki a GPS koordinátákat jel nélkül
24 óra alatt pic.twitter.com/8P2QoQMNbW
— Ian Laffey (@ilaffey2) 2024. február 18.
Bár a drón technológia még nem olyan pontos, mint ahogy azt néhány fejlesztő reméli – különösen azokban az időjárási körülmények között, amelyek csökkentik a “láthatóságát” – nagy potenciált mutatott ezen a területen.
Nehéz elérni a globális konszenzust
Nemcsak a háborús országok vagy a világ nagyhatalmai fejlesztenek új, AI-alapú technológiákat a védelem érdekében. Sok nemzet évek óta integrálja az AI-t a kiberbiztonsági erőfeszítésekbe és az autonóm fegyverek fejlesztésébe. Ez nem csak egy 2025-ös jelenség.
2014 óta az Egyesült Nemzetek Szervezete több országgal próbál megegyezni szabályozási keretekről, eddig sikertelenül.
Több mint 90 nemzet gyűlt össze nemrég az ENSZ Közgyűlésén New Yorkban, hogy megvitassák az AI által vezérelt autonóm fegyverek jövőjét és szabályozását. Nem sikerült konszenzusra jutniuk, és a Közgyűlés csak egy nem kötelező erejű határozatot fogadott el 2023-ban, amely figyelmeztet a halálos autonóm fegyverrendszerek (LAWS) kérdésének kezelésének szükségességére.
A nagy vita most arról szól, hogy megvalósítsunk-e egy globális keretrendszert vagy sem. Sok ország egyetért abban, hogy szükség van új globális irányelvekre, amelyek szabályozni tudják a magán AI cégeket és a nemzeteket. Más országok, mint például az USA, Kína, Oroszország és India, inkább megtartanák a jelenlegi nemzetközi jogszabályokat, és függetlenül hoznának létre új, minden egyes nemzet számára a helyi igények – vagy érdekek – szerint. És éppen most láttuk, milyen kaotikus volt az új AI szabályozások létrehozásának folyamata, még az állami szinten is Kaliforniában.
Tech cégek egyre inkább bevonva
Aktivisták, mint például Laura Nolan a Stop Killer Robots oldalról, aggodalommal nézik a biztonsági intézkedések és jogi keretek hiányát, amelyek ellenőriznék a technológiai cégek előretörését az autonóm fegyverek és a katonai AI szoftverek fejlesztésében.
“Általánosságban nem bízunk az önszabályozásra képes iparágakban… Nincs okunk hinni, hogy a védelmi vagy technológiai cégek megbízhatóbbak lennének,” mondta Nolan a Reutersnek.
2024-ben kutatók felfedték, hogy a kínai intézmények a Meta nyílt forráskódú, Llama névre hallgató nagy nyelvi modelljét használják katonai célokra. A Pentagon megállapodást kötött a Scale AI-jal a Thunderforge fejlesztésére—egy olyan AI projekt, mely modernizálná a katonai döntéshozatalt. És az OpenAI a katonai vállalkozó Andurillal állt össze—egy védelmi szövetségessel, mely az amerikai hadsereg, az Egyesült Királyság, Ukrajna és Ausztrália szövetségese.
A védelmi startupok száma növekedett Európában is, nem csak új technológiák és projektek fejlesztésében nyertek teret, de a csúcskategóriás tehetségek megnyerésében is.
Bonyolult fejlődés
Egy másik tényező, amely szorosan összefügg a tech cégek nemzeti védelmi stratégiákban való részvételével, a nacionalizmus. Egyre több szoftverfejlesztő és AI szakértő választja azokat a projekteket, amelyek összhangban vannak az ideáljaik és kulturális gyökereikkel, nem pedig egyszerűen a magasabb fizetést hajszolják. Néhányan még az Egyesült Államokban kínált, kétszeres fizetést kínáló munkalehetőségeket is visszautasítottak – mint például a Google vagy az OpenAI – hogy csatlakozzanak európai vállalkozásokhoz, mint például a Helsing.
A politika, a technológia, a nacionalizmus és az ideológiai csatározások szálai egyre összetettebbé válnak – gyakran háttérbe szorítva az etikai, morális és humanista szempontokat.
A legutóbbi fejlemények egyértelművé teszik, hogy a technológiai óriáscégek óriási szerepet játszanak a világ katonai és nemzeti védelmi erőfeszítéseiben. Az autonóm fegyverek és a háborús technológiák fejlesztése ultra-gyors ütemben halad, miközben az Egyesült Nemzetek Szervezetének erőfeszítései az emberiség jövőjének nemzetközi megállapodásainak és szabályozásainak létrehozására egyre inkább minimalizálódnak.
Nemzetközi megállapodások nélkül – és ambiciózus technológiai cégekkel, melyeket kormányok támogatnak, hogy mesterséges intelligencia segítségével fejlesszék a világ legnagyobb erejű fegyvereit – mit tartogat a jövő az emberiség számára az elkövetkező években?