Bendradarbiavimas su technologijų bendruomene nėra „malonu turėti“ gynybos politikos formuotojus-yra „be galo būtina, kad ši bendruomenė nuo pat pradžių įsitrauktų į projektavimo, plėtros ir naudojimo rėmus, kurie vadovaus AI sistemų ir galimybių saugumui ir saugumui (UNIDIR)“.
Kalbėdama naujausioje pasaulinėje AI saugumo ir etikos konferencijoje, kurią UNIDIR surengė Ženevoje, ji pabrėžė, kad svarbu pastatyti veiksmingus apsauginius turėklus, nes pasaulis naršo tai, kas dažnai vadinama AI „Oppenheimerio momentu“ – kalbant apie Roberto Oppenheimerio, JAV branduolinio fiziko, geriausio vaidmens, kuriant „Atomic Bomb“.
Reikalinga priežiūra, kad PG pokyčiai gerbtų žmogaus teises, tarptautinę teisę ir etiką, ypač AI valdomų ginklų srityje, kad užtikrintų, jog šios galingos technologijos vystosi kontroliuojamai, atsakingai, reikalavo UNIDIR pareigūnas.
Ydinga technika
AI jau sukūrė saugumo dilemą vyriausybėms ir kariškiams visame pasaulyje.
Dvigubo naudojimo AI technologijų pobūdis-ten, kur jos gali būti naudojamos tiek civilinėje, tiek karinėje aplinkoje-reiškia, kad kūrėjai gali prarasti ryšį su mūšio lauko sąlygų tikrove, kur jų programavimas galėtų kainuoti gyvybei, perspėjo Arnaud Valli, „Comand AI“ viešųjų reikalų vadovą.
Įrankiai vis dar yra pradinėje stadijoje, tačiau jau seniai kelia baimę, kad jie gali būti naudojami priimant sprendimus dėl gyvybės ar mirties karo metu, pašalinant žmonių sprendimų priėmimo ir atsakomybės poreikį. Taigi augantys raginimai dėl reguliavimo, siekiant užtikrinti, kad būtų išvengta klaidų, dėl kurių gali sukelti pražūtingų padarinių.
„Matome, kad šios sistemos visą laiką žlunga“,-sakė Davidas Sully, Londone įsikūrusios bendrovės „Advai“ generalinis direktorius ir pridūrė, kad technologijos išlieka „labai nepagrįstos“.
„Taigi, priversti juos suklysti nėra taip sunku, kaip kartais žmonės galvoja“, – pažymėjo jis.
Bendra atsakomybė
„Microsoft“ komandose daugiausia dėmesio skiriama pagrindiniams saugos, saugumo, įtraukimo, sąžiningumo ir atskaitomybės principams, sakė Michaelas Karimianas, skaitmeninės diplomatijos direktorius.
JAV technologijų milžinas, kurį įkūrė Billas Gatesas, nustato teisėsaugos naudojamą realiojo laiko veido atpažinimo technologijos apribojimus, kurie galėtų padaryti psichinę ar fizinę žalą,-aiškino p. Karimianas.
Jis turi būti parengtas aiškių apsaugos priemonių, o firmos turi bendradarbiauti, kad sugriautų silosus, – sakė jis renginyje JT Ženevoje.
„Inovacijos nėra kažkas, kas vyksta tik vienoje organizacijoje. Yra atsakomybė dalintis“, – sakė p. Karimianas, kurio įmonės partneriai, turintys UNIDIR, užtikrina AI laikymąsi tarptautinių žmogaus teisių.
Priežiūros paradoksas
Dalis lygties yra ta, kad technologijos tobulėja taip greitai, šalys stengiasi neatsilikti.
„PG vystymasis pranoksta mūsų galimybes valdyti daugybę rizikų“,-sakė Sulyna Nur Abdullah, kuri yra strateginio planavimo vadovas ir specialusis Tarptautinės telekomunikacijų sąjungos (ITU) generalinio sekretoriaus patarėja.
„Turime atkreipti dėmesį į PG valdymo paradoksą, pripažindami, kad taisyklės, kurias kartais atsilieka nuo technologijos, tampa būtina nuolatiniam politikos ir techninių ekspertų dialogui kurti veiksmingo valdymo priemones“, – teigė ponia Abdullah ir pridūrė, kad besivystančios šalys taip pat turi atsisakyti vietos prie stalo.
Atskaitomybės spragos
Daugiau nei prieš dešimtmetį, 2013 m., Garsus žmogaus teisių ekspertas Christas Heynsas pranešime apie mirtiną autonominę robotiką (LARS) perspėjo, kad „išimti žmones iš kilpos taip pat rizikuoja ištraukti žmoniją iš kilpos“.
Šiandien ne mažiau sunku paversti nuo konteksto priklausomus teisinius sprendimus į programinės įrangos programą ir vis dar labai svarbu, kad „gyvenimo ir mirties“ sprendimus priimtų žmonės, o ne robotai, reikalavo Peggy Hicks, JT Žmogaus teisių biuro (OHCHR) Teisės į plėtros skyriaus direktoriaus direktoriaus.
Veidrodinė visuomenė
Nors didžiųjų technologijų ir valdymo vadovai daugiausia mato dėmesį į pagrindinius AI gynybos sistemų principus, idealai gali prieštarauti įmonių esmei.
„Mes esame privati įmonė – mes taip pat ieškome pelningumo“, – sakė „Comand AI“ ponas Valli.
„Sistemos patikimumą kartais labai sunku rasti“, – pridūrė jis. „Bet kai dirbate šiame sektoriuje, atsakomybė gali būti didžiulė, be galo didžiulė“.
Neatsakyti iššūkių
Nors daugelis kūrėjų yra įsipareigoję kurti algoritmus, kurie yra „sąžiningi, saugūs, tvirti“, pasak pono Sully, nėra jokio plano šių standartų įgyvendinimo žemėlapio – ir įmonės gali net nežinoti, ką tiksliai bando pasiekti.
Šie principai „diktuoja, kaip turėtų vykti įvaikinimas, tačiau jie iš tikrųjų nepaaiškina, kaip tai turėtų įvykti“, – sakė p
Dideliems technologijoms ir politikos formuotojams reikia atitolinti ir sugadinti didesnį vaizdą.
„Tai, kas yra patikimumas sistemai, yra neįtikėtinai techninis, tikrai sudėtingas tikslas, kurį reikia nustatyti, ir ji šiuo metu neatsakyta“, – tęsė jis.
Nėra AI „pirštų atspaudų“
Ponas Sully, kuris apibūdino save kaip „didelį AI sistemų reguliavimo rėmėją“, dirbo ne įpareigojančioje išsamioje Vienoje branduolinių branduolinių testų-Bano sutarčių organizacijoje, kuri stebi, ar vyksta branduoliniai bandymai.
Tačiau, jo teigimu, nustatant AI valdomus ginklus, jis kelia visiškai naują iššūkį, kurį branduolinės ginklai-turintys teismo medicinos parašus-ne.
„Yra praktinė problema, susijusi su tuo, kaip jūs policijos reglamentavime tarptautiniu lygmeniu“, – teigė generalinis direktorius. „Tai yra šiek tiek to, ko niekas nenori spręsti. Bet kol į tai nebus išspręsta … Manau, kad tai bus didžiulė, didžiulė kliūtis“.
Ateities apsauga
UNIDIR konferencijos delegatai reikalavo, kad strateginės įžvalgos poreikis būtų suprasti riziką, kurią kelia dabar gimusios pažangiausios technologijos.
„Mozilla“, kuri moko naujos kartos technologijas, būsimi kūrėjai „turėtų žinoti, ką jie daro su šia galinga technologija ir ką jie kuria“, – tvirtino įmonės ponas Eliasas.
Tokie akademikai kaip Mozė B. Khanyile iš Stellenbosch universiteto Pietų Afrikoje mano, kad universitetai taip pat prisiima „aukščiausią atsakomybę“ už pagrindines etines vertybes.
Kariuomenės interesai – numatomi šių technologijų vartotojai – ir vyriausybės, kaip reguliavimo institucijos, turi būti „suderintos“, – sakė dr. Khanyile, Stellenbosch universiteto Gynybos dirbtinio žvalgybos tyrimų skyriaus direktorius.
„Jie privalo vertinti AI techniką kaip į įrankį, todėl jie turi tapti gero jėga“.
Šalys įsitraukė
Paklausta, kokių vieno veiksmo jie imsis, kad sukurtų pasitikėjimą tarp šalių, diplomatų iš Kinijos, Nyderlandų, Pakistano, Prancūzijos, Italijos ir Pietų Korėjos.
„Turime apibrėžti nacionalinio saugumo liniją, susijusią su aukštųjų technologijų technologijų eksporto kontrole“,-sakė nepaprastas ambasadorius Shen Jian, ambasadoriaus ambasadorius ir plenipotendinis (nusiginklavimas) ir nuolatinis Kinijos Liaudies Respublikos atstovo atstovas.
Ateities AI tyrimų ir plėtros keliai taip pat turi apimti ir kitas atsirandančias sritis, tokias kaip fizika ir neuromokslas.
„PG yra sudėtinga, tačiau tikrasis pasaulis yra dar sudėtingesnis“, – sakė Robertas Den Bosch, nusiginklavimo ambasadorius ir nuolatinis Nyderlandų atstovas į nusiginklavimo konferenciją. „Dėl šios priežasties sakyčiau, kad taip pat svarbu pažvelgti į AI konvergenciją su kitomis technologijomis ir ypač kibernetinėmis, kvantinėmis ir erdvėmis“.