2024 m. rugsėjį „The New York Times“ paskelbė Raj M. Shah ir Christopher M. Kirchhoff oped. Jie teigė, kad Jungtinėms Valstijoms reikia skubiai priimti dirbtinio intelekto varomas ginklų sistemas, kad neatsiliktų nuo vadinamųjų civilizacinių lenktynių su Kinija. Jie taip pat teigė, kad kariuomenei reikėjo pertvarkyti savo technologines galimybes, kad neatsiliktų nuo AI skatinamo karo. Nuo tada ta vizija nustojo būti nuomonių puslapiuose ir tapo gyva realybe. 2026 m. vasario 28 d. Jungtinės Valstijos pradėjo operaciją „Epic Fury“, per pirmas 24 valandas smogdama daugiau nei 1000 taikinių, kuriuos CENTCOM iš dalies priskiria sistemoms, kurioms padeda dirbtinis intelektas.
Shaho, Kirchhoffo ir juos sekančių Vakarų komentatorių choro pateiktas argumentas grindžiamas trimis tarpusavyje susijusiomis prielaidomis: dirbtinis intelektas padaro karą tikslesnį, Amerikos technologijų lyderystė yra moralinis reikalavimas pasaulyje, kuriam gresia autoritariniai konkurentai, o žmogus, esantis kilpoje, suteikia pakankamai etinės apsaugos nuo žiaurumo. Šie teiginiai yra ne tik ginčytini, bet ir paneigiami dokumentais pagrįstais faktais, pagrįstais mūšio laukais, kuriuose ši technologija jau buvo panaudota prieš gyventojų centrus.
Pradėkite nuo labiausiai viliojančio argumento: kad AI padarys žudymą humaniškesnį. Technikos korporacijos ir jų atstovai kuria sterilizuoto, švaraus ir bekraujo smurto įvaizdžius. Jų demonstracijose nedalyvauja civiliai ar civilinės infrastruktūros griovimas. Trumpai tariant, algoritminis karas pristatomas kaip švari ir efektyvi veikla. Tačiau tikroji AI taikymo sistemų praktika yra radikaliai kitoks pasakojimas, parašytas palestiniečių, iraniečių ir kitų, kurie niekada neturėjo privilegijos gauti stulpelį „New York Times“, krauju.
Izraelio kariuomenė Gazoje turėjo iki 37 000 palestiniečių, algoritmiškai susijusių su Hamas, sąrašą pagal Levandų sistemą. Civilių, kuriuos karininkams buvo leista nužudyti su kiekvienu jaunesniuoju taikiniu, skaičius pirmosiomis karo savaitėmis buvo iki 20. Tai nėra tikslumas. Tai mašininio mokymosi būdu išplautos pramoninio masto tikimybinis žudymas. Kariuomenė žinojo, kad žmonių priežiūra yra minimali ir kad darbuotojai neaptiks klaidų. Jie klaidas traktavo statistiškai dėl užduoties masto ir dydžio. Jie manė, kad net nežinodami, ar mašina priėmė teisingą sprendimą, jis buvo statistiškai teisingas. Pareigūnai guminiais antspaudais įspaudė taikinius vidutiniškai per dvidešimt sekundžių, kad užtikrintų levandomis pažymėto taikinio patvirtinimą.
Įrašai, surinkti į slaptą Izraelio karinę duomenų bazę, parodė, kad iš 53 000 palestiniečių, žuvusių Gazoje, tik 17 procentų buvo kovotojai, o tai nėra įprasta šiuolaikiniame kare ir dėl to buvo pareikšti tarptautiniai kaltinimai genocidu. Tai ne išimtys. Tai yra numatomi dirbtinio intelekto įgyvendinimo rezultatai prieš sistemas, kuriose mažai žmonių prižiūrimas ir politinis skaičiavimas, kuris laiko nevakarietiškus gyvenimus pagrįstais duomenų taškais.
Irane per išpuolį prieš Shajareh Tayyebeh mergaičių mokyklą Minabe, nusinešusį 168 žmonių gyvybes, daugiausiai moksleivių, JAV Senato demokratai pradėjo skubiai paklausti, ar AI dalyvavo pasirenkant taikinius. Jokia atsakomybė neatsirado. Tai yra būtent tai, ką AI gali padaryti sisteminiu mastu: ne tikslumas, o tikėtinas paneigimas mastu. Žmogus, kurio vienintelis vaidmuo yra priimti mašinos rekomendacijas, yra ne apsaugos priemonė, o konstrukcijos trūkumas. Liko nežiūrėjimas, o ne tikrovė.
Kreipimasis į civilizacines lenktynes prieš Kiniją kaip galutinę Shaho ir Kirchhoffo apsauginių turėklų nuvertimo gynybą nėra naujas. Platesniame diskurse šis įrėminimas atrodo plonai uždengtas. Aiškiausiai tai atsispindi argumentuose, pavyzdžiui, Andurilo įkūrėjo Palmerio Luckey, kuris TED auditorijai pasakė, kad „jei Jungtinės Valstijos nevadovauja šioje erdvėje, tai bus autoritariniai režimai ir jiems nerūpės mūsų etikos normos“. Tai atspindi seniausią kolonijinio žaidimo knygos argumentą, matomą per pasaulinių pietų prizmę. Tai rodo, kad Vakarų smurtas yra civilizacinė būtinybė, o mirtinos jėgos monopolis yra moralinio valdymo forma. Tai taip pat reiškia, kad abejoti šiuo monopoliu yra naivu ar net išdavikiška.
Azija, Afrika, Lotynų Amerika ir Artimieji Rytai tai girdėjo anksčiau. Jie klausėsi, kaip Britanija naudoja ginklą Maxim prieš Sudano gentainius. Tai ta pati istorinė analogija, kurią patys Shahas ir Kirchhoffas naudojo šlovindami transformuojančią AI karo galią. Jie tai girdėjo per dešimtmečius trukusias bepiločių orlaivių atakas Pakistane, Somalyje, Jemene ir Libijoje, kur algoritminės „parašo atakos“ nužudė vyrus ne dėl to, kas jie buvo, o dėl jų elgesio modelių, kuriuos atpažino mašina. Civilių mirčių dėl klaidingų išpuolių ir laisvų principų, kas gali būti taikinys, ateitis yra ilgalaikė problema. Tai akivaizdu taikant vadinamąsias tikslesnes sistemas, kaip parodė šio amžiaus dronų atakos.
Tai, ką pasauliniai pietai mato aiškiau nei tie, kurie yra Vakarų strateginės kultūros dalis, yra nerimą keliantis prieštaravimas. Tos pačios tautos, kurios teigia, kad yra atsakingos dirbtinio intelekto ir etikos sistemos, taip pat silpnina tarptautinę teisinę sistemą, dėl kurios jos galėtų būti atsakingos. Pentagonas smarkiai sumažino pastangas išbandyti ir įvertinti dideles ginklų sistemas. Ji taip pat sumažino bandymus nustatyti šių sistemų civilių aukų riziką. Taisyklės, kurias Bideno administracija pasiūlė valdyti AI riziką, jau buvo silpnos. Dabar šios taisyklės buvo dar labiau pažeistos. Tuo tarpu pastangos kontroliuoti AI kariuomenėje išlieka labai nevienodos.
Vis dar nėra privalomos tarptautinės konvencijos, reglamentuojančios šias technologijas. Jungtinės Valstijos nevadovauja jokioms rimtoms deryboms dėl patikrinamų autonominio taikymo apribojimų. Ji nesiėmė prasmingų veiksmų, kad tokius apribojimus pastūmėtų. Kai Kinija ar Rusija Jungtinėse Tautose pateikia pasiūlymus dėl tarptautinių konvencijų dėl autonominių ginklų, Vakarų delegacijos reaguoja atsargiai. Jie dažnai sušvelnina pasiūlymus. Kitu metu jie atideda diskusijas arba visai sujaukia procesą. Pamoka, kurią pasauliniai pietai turėtų pasimokyti iš šios tendencijos, yra ne ta, kad Vakarai sąžiningai tobulina DI karo etiką. Pamoka ta, kad Vakarų valstybės yra pasiryžusios išlaikyti savo algoritminio mirtingumo monopolį. Atrodo, kad jie taip pat siekia užtikrinti, kad bet kokia būsima sutartis būtų per silpna, kad jas prasmingai įpareigotų.
Shah-Kirchhoff argumentas turi dimensiją, kurią Vakarų redaktoriai retai iškelia į dienos šviesą: finansinius interesus, įterptus į jų nurodytą skubumą. Raj Shah dabar yra rizikos kapitalo įmonė, kuri investuoja į gynybos technologijų startuolius – dar vieną besisukančių durų tarp Pentagono ir ginklų pramonės formą. Jų esė yra daugiau pardavimų kalba apie karinį-pramoninį kompleksą, nei rimtas šių technologijų pavojų svarstymas. Rizikos kapitalo įmonės skyrė dešimtis milijardų dolerių gynybos technologijų startuoliams. Dirbtinio intelekto valdomų sistemų pramonė pasamdė dešimtis buvusių karinių pareigūnų, kad jie parodytų savo bylą Vašingtone. Tai, kas materialine prasme atrodo kaip strateginė analizė, yra investuotojų grąžos žingsnis.
Dirbtinio intelekto karo infrastruktūrą išplėtoti brangu, o vien JAV „Žvaigždžių vartų“ programa kainuos 500 mlrd. Pasaulis, kuriame tik pasaulinė šiaurė ir jų Silicio slėnio rangovai gali sukurti, įdiegti ir skaityti AI tikslines sistemas, yra pasaulis, kuriame Vakarų karinė hegemonija yra sunkiai užkoduota pačioje smurto programinėje įrangoje. Pasauliniai pietai nėra pasyvus šio proceso stebėtojas. Tai pagrindinis jos tikslinis teatras.
Pavojingiausia mintis šioje diskusijoje, ko gero, yra ta, kad algoritminės sistemos gali laikytis tarptautinės humanitarinės teisės ir tai daryti tokiu greičiu, kokiu joks žmogus negali veiksmingai prižiūrėti. Didžiausias AI skatinamo karo poveikis yra laiko spaudimas. Nors formaliai žmogaus kontrolė gali būti būtina, kontekstas, kuriame priimamas toks sprendimas, tampa vis labiau iš anksto užprogramuotas mašinų. Ženevoje nustatytos teisinės sistemos – kovotojų ir civilių atskyrimas, proporcingumas, atsargumas puolant ir individuali baudžiamoji atsakomybė – reiškia, kad sprendimus priima žmogus. Tas sprendimo priėmėjas gali būti nustatytas, apklaustas ir patrauktas baudžiamojon atsakomybėn. Taikant dirbtinį intelektą ši sistema ne tik tampa sudėtingesnė; ji sistemingai ją skaido. JT specialusis pranešėjas Benas Saulas teigė, kad tuo atveju, jei pranešimai apie Izraelio AI naudojimą Gazoje yra teisingi, nemaža dalis Izraelio išpuolių būtų laikomi karo nusikaltimais. Jokio baudžiamojo persekiojimo nebuvo. Nėra atskaitomybės mechanizmo.
Pasaulinių pietų reakcija į AI karo doktriną nėra naivus pacifizmas ar teisėtų valstybių saugumo interesų atmetimas. Tai vienodumo reikalavimas. Kai dirbtinio intelekto karas iš tiesų yra tiksli priemonė, kurią teigia jos šalininkai, jie neturėtų prieštarauti privalomų tarptautinių tikrinimo režimų įvedimui, nepriklausomiems aukų tyrimams ir visuotiniams sutartiniams įsipareigojimams pagal tuos pačius standartus, kuriuos Vakarų vyriausybės nustatė kitoms cheminių ir biologinių ginklų atveju. Atsakymas, ar ši technologija naudojama atsakingai, yra paprastas. Tai slypi atsisakyme priimti reikšmingus suvaržymus. Algoritmas nėra nešališkas. Yra žudymo grandinės savininkai. Ir jos sukurti kūnai nėra statistika; jie yra nepaneigiamas liudijimas, kad tai, kas reklamuojama kaip tikslumas, iš tikrųjų yra nauja ir veiksmingesnė nebaudžiamumo architektūra.
Tolesnis skaitymas apie el. tarptautinius santykius