Прывід машыннага забойцы працягваецца. У што верыць прэзыдэнт Пуцін
Тэхналогіі

Прывід машыннага забойцы працягваецца. У што верыць прэзыдэнт Пуцін

Прыхільнікі ваенных робатаў (1) сцвярджаюць, што аўтаматызаваная зброя дае больш магчымасцяў для абароны чалавечага жыцця. Машыны ўмеюць падбірацца да суперніка бліжэй, чым салдаты, і правільна ацэньваць пагрозу. А эмоцыі часам паралізуюць здольнасць прымаць правільныя рашэнні.

Многія прыхільнікі выкарыстання робатаў-забойцаў цвёрда перакананыя, што яны зробяць войны менш кровапралітнымі, таму што загіне менш салдат. Яны адзначаюць, што робаты, хоць і не адчуваюць жалю, неўспрымальныя да негатыўных чалавечых эмоцый, такіх як паніка, гнеў і помста, якія часта прыводзяць да ваенных злачынстваў.

Праваабаронцы таксама выкарыстоўваюць аргумент, што вайскоўцы прывялі да вялізнага скарачэння грамадзянскіх страт за апошнія паўстагоддзя, а рабатызацыя арміі дазваляе ўкараніць механізм стражэйшага захавання законаў вайны. Яны сцвярджаюць, што машыны стануць этычнымі, калі яны будуць абсталяваны праграмным забеспячэннем, якое прымусіць іх выконваць законы вайны.

Вядома, вялізная колькасць людзей, у тым ліку вельмі вядомых, гадамі не падзяляюць гэтага меркавання. У красавіку 2013 года была запушчана міжнародная кампанія пад слоганам (2). У яго межах няўрадавыя арганізацыі патрабуюць поўнай забароны на выкарыстанне аўтаномнай зброі. Спецыялісты з многіх краін упершыню селі абмяркоўваць гэтую тэму на канферэнцыі ААН па раззбраенні ў Жэневе ў маі 2014 года. У апублікаваным праз некалькі месяцаў дакладзе Х'юман Райтс Вотч і навукоўцаў з Гарвардскага ўніверсітэта гаворыцца, што аўтаномныя будуць занадта небяспечныя - яны самі выбіралі сабе мэты і забівалі людзей. Пры гэтым не вельмі зразумела, каго прыцягваць да адказнасці.

2. Дэманстрацыя ў рамках акцыі "Стоп робаты-забойцы"

На што здольны рой маленькіх Дронов

Спрэчкі вакол робатаў-забойцаў (РОУ) вядуцца гадамі і не згасаюць. Апошнія месяцы прынеслі новыя спробы спыніць ваенных робатаў і хвалю паведамленняў аб новых праектах гэтага тыпу, некаторыя з якіх нават праходзяць выпрабаванні ў рэальных баявых умовах.

У лістападзе 2017 года відэа, якое паказвае смяротныя раі міні-дронаў ., у жахлівым дзеянні. Гледачы ўбачылі, што нам больш не патрэбны цяжкія баявыя машыны, танкі ці ракеты, кінутыя Драпежнікамі, каб забіваць масава і аўтаматам. Вядучы рэжысёр Сцюарт Расэл, прафесар штучнага інтэлекту ў Берклі, кажа:

-

Апошняя вясна пяцьдзесят прафесараў Вядучыя ўніверсітэты свету падпісалі зварот да Карэйскага інстытута перадавых навук і тэхналогій (KAIST) і яго партнёру Hanwha Systems. яны аб'явілі, што не будуць супрацоўнічаць з універсітэтам і прымаць гасцей KAIST. Прычынай стала будаўніцтва "аўтаномнай зброі", якое ажыццяўляецца абодвума ўстановамі. KAIST абверг паведамленні СМІ.

Неўзабаве пасля гэтага ў ЗША больш за 3 Супрацоўнікі Google пратэставалі супраць працы кампаніі на ваен. Яны былі занепакоеныя тым, што Google з'яўляецца партнёрам урадавага праекта пад кодавай назвай Maven, мэтай якога з'яўляецца выкарыстанне ІІ для распазнання аб'ектаў і асоб на відэа з ваенных дронаў. Кіраўніцтва кампаніі кажа, што мэта Maven – ратаваць жыцці і пазбаўляць людзей ад стомнай працы, а не агрэсіі. Пратэстуючых гэта не пераканала.

Наступнай часткай бітвы стала заява спецыялісты ў галіне штучнага інтэлекту, вкл. працуе над праектам Google і Элона Муска. Абяцаюць не распрацоўваць робатаў. Яны таксама заклікаюць урады актывізаваць намаганні па рэгуляванні і абмежаванні гэтай зброі.

У заяве, у прыватнасці, гаворыцца, што "рашэнне аб пазбаўленні чалавека жыцця ніколі не павінна прымацца машынай". Хоць войскі міру абсталяваныя мноствам аўтаматычных прылад, часам якія валодаюць высокай ступенню аўтаномнасці, шматлікія эксперты асцерагаюцца, што ў будучыні гэтая тэхналогія можа стаць цалкам аўтаномнай, якая дазваляе забіваць без які-небудзь удзелы чалавека-аператара і камандзіра.

Эксперты таксама папярэджваюць, што аўтаномныя машыны для забойстваў могуць быць нават больш небяспечнымі, чым "ядзерную, хімічную і біялагічную зброю", таму што яны могуць лёгка выйсці з-пад кантролю. Усяго ў ліпені мінулага года ліст пад эгідай Інстытута будучага жыцця (ФЖВ) падпісалі 170 арганізацый і 2464 фізічныя асобы. У першыя месяцы 2019 года група навукоўцаў-медыкаў, звязаных з FLI, зноў заклікала да новага ліста, які забараняе распрацоўку зброі, які кіруецца штучным інтэлектам (ІІ).

Леташняя жнівеньская нарада ААН у Гневе па магчымым прававым рэгуляванні вайскоўцаў «робатаў-забойцаў» завяршылася поспехам… машын. Група краін, у тым ліку ЗША, Расія і Ізраіль, заблакавала далейшую працу па ўвядзенні міжнароднай забароны на гэтую зброю (праект Канвенцыі аб забароне або абмежаванні прымянення канкрэтных відаў звычайнай зброі, КНВ). Невыпадкова гэта краіны, вядомыя сваімі працамі над перспектыўнымі сістэмамі аўтаномнага і рабатызаванага ўзбраення.

Расія робіць упор на баявых робатаў

Часта цытуюцца словы прэзідэнта Уладзіміра Пуціна аб ваенных сістэмах штучнага інтэлекту і баявых робатах:

-.

адкрыта гаворыць аб распрацоўцы аўтаномнай зброі. Начальнік Генеральнага штаба яе ўзброеных сіл генерал Валерый Герасімаў нядаўна заявіў агенцтву ваенных навін "Інтэрфакс-АВН", што выкарыстанне робатаў стане адной з галоўных асаблівасцяў будучых войнаў. Ён дадаў, што Расея спрабуе. цалкам аўтаматызаваць поле бою. З аналагічнымі каментарамі выступілі віцэ-прэм'ер Дзмітрый Рагозін і міністр абароны Сяргей Шайгу. Старшыня камітэта Савета Федэрацыі па абароне і бяспецы Віктар Бондараў заявіў, што Расія імкнецца развіваць Тэхналогіі «народжугэта дазволіла б сеткам Дронов функцыянаваць як адзінае цэлае.

Гэта нядзіўна, калі ўспомніць, што першыя тэлетанкі былі распрацаваны ў Савецкім Звязе ў 30-х гадах. Яны выкарыстоўваліся ў пачатку Другой сусветнай вайны. Сёння Расея таксама стварае робаты-танкі станавіцца ўсё больш аўтаномным.

Дзяржава Пуціна нядаўна адправіла сваіх у Сірыю Беспілотная баявая машына Уран-9 (3). апарат губляў сувязь з наземнымі пунктамі кіравання, меў праблемы з сістэмай падвескі, а яго ўзбраенне функцыянавала не ідэальна і не дзівіла якія рухаюцца мэты. Гучыць не вельмі сур'ёзна, але многія лічаць сірыйскі вайп добрым баявым выпрабаваннем, якое дазволіць рускім удасканаліць машыну.

Раскосмас зацвердзіў папярэдні план адпраўкі двух робатаў на Міжнародную касмічную станцыю да жніўня гэтага года. Фёдар (4) у беспілотным Саюзе. Не як груз, а. Як і ў фільме «Рабакоп», Фёдар валодае зброяй і дэманструе забойную трапнасць падчас практыкаванняў па стральбе.

Пытаецца, навошта робату ў космасе быць узброеным? Ёсць падазрэнні, што справа не толькі ў наземных ужываннях. Тым часам на Зямлі расейскі вытворца зброі Калашнікаў паказаў візуалізацыю раб Ігарэкшто хоць і выклікала шмат смеху, але сігналізуе аб тым, што кампанія сур'ёзна працуе над аўтаномнымі баявымі машынамі. У ліпені 2018 года Калашнікаў абвясціў, што стварае зброю, якую ён выкарыстоўвае для прыняцця рашэнняў "страляць - не страляць".

Да гэтай інфармацыі трэба дадаць паведамленьні пра тое, што расейскі збройнік Дзігцяроў распрацаваў невялікі аўтаномны танк Нерэхт які можа самастойна бясшумна перамяшчацца да сваёй мэты, а затым падарвацца з магутнай сілай, каб разбурыць іншыя ці цэлыя будынкі. А таксама Танк Т14 Армата , гонар расійскіх узброеных сіл, быў разлічаны на магчымае дыстанцыйнае кіраванне і беспілотнае кіраванне. Sputnik сцвярджае, што расейскія вайсковыя інжынеры працуюць над тым, каб зрабіць Т-14 цалкам аўтаномнай браняванай машынай.

Дырэктыва аб пярэчаннях

Самі вайскоўцы ЗША наклалі дастаткова дакладнае абмежаванне на ўзровень аўтаномнасці сваёй зброі. У 2012 годзе Міністэрства абароны ЗША выдала дырэктыву 3000.09, у якой гаворыцца, што людзі павінны мець права пярэчыць супраць дзеянняў узброеных робатаў. (хоць могуць быць некаторыя выключэнні). Гэтая дырэктыва застаецца ў сіле. Цяперашняя палітыка Пентагона заключаецца ў тым, што вырашальным фактарам у прымяненні зброі заўсёды павінен быць чалавек, і што такое меркаванне павінна быць. адпавядае законам вайны.

Хоць амерыканцы ўжо некалькі дзясяткаў гадоў выкарыстоўваюць якія лётаюць, Драпежнікі, Жнецы і шматлікія іншыя супермашыны, яны не былі і не з'яўляюцца аўтаномнымі мадэлямі. Імі кіруюць аператары дыстанцыйна, часам з адлегласці некалькі тысяч кіламетраў. Вострая дыскусія аб аўтаномнасці машын такога тыпу пачалася з прэм'еры прататыпа. Беспілотнік X-47B (5), які не толькі лётаў самастойна, але і мог узлятаць з авіяносца, садзіцца на яго і дазапраўляцца ў паветры. Па сэнсе - таксама страляць або бамбаваць без удзелу чалавека. Тым не менш, праект усё яшчэ знаходзіцца ў стадыі тэсціравання і разгляду.

5. Выпрабаванні беспілотнага X-47B на амерыканскім авіяносцы

У 2003 годзе Міністэрства абароны пачало эксперыменты з невялікім танкападобным робатам. Шпагі , абсталяваны кулямётам. У 2007 годзе яго адправілі ў Ірак. аднак праграма завяршылася пасля таго, як робат пачаў паводзіць сябе непрадказальна, хаатычна рухаючы вінтоўкай. У выніку амерыканскія вайскоўцы на доўгія гады адмовіліся ад даследаванняў узброеных наземных робатаў.

У той жа час армія ЗША павялічыла свае выдаткі на працы з 20 млн. долараў ЗША ў 2014 годзе да 156 млн. долараў ЗША ў 2018 годзе. У 2019 годзе гэты бюджэт ужо падскочыў да 327 даляраў ЗША. Гэта сукупны рост на 1823-XNUMX% усяго за некалькі гадоў. Эксперты гавораць, што ўжо ў 2025 годзе ва ўзброеных сіл ЗША можа з'явіцца поле бою робатаў-салдат больш, чым людзей.

У апошні час шмат спрэчак выклікала і абвешчана войскам ЗША праект Атлас () - аўтаматычны. У СМІ гэта расцанілі як парушэнне вышэйзгаданай дырэктывы 3000.09. Аднак амерыканскія вайскоўцы адмаўляюць і запэўніваюць, што аб выключэнні чалавека з цыклу прыняцця рашэнняў не можа быць і гаворкі.

ІІ распазнае акул і мірных жыхароў

Аднак у абаронцаў аўтаномнай зброі з'явіліся і новыя аргументы. праф. Рональд Аркін, робататэхнік з Тэхналагічнага інстытута Джорджыі, сцвярджае ў сваіх публікацыях, што У сучаснай вайне інтэлектуальнае зброю неабходна, каб пазбегнуць ахвяр сярод цывільнага насельніцтва, паколькі метады машыннага навучання могуць эфектыўна дапамагчы адрозніваць камбатантаў і грамадзянскіх асоб, а таксама важныя і няважныя мэты.

Прыкладам такіх навыкаў ІІ з'яўляецца патруляванне аўстралійскіх пляжаў. дроны Little Ripper, абсталяваны сістэмай SharkSpotter, распрацаванай Сіднэйскім тэхналагічным універсітэтам. Гэтая сістэма аўтаматычна скануе ваду на наяўнасць акул і папярэджвае аператара, калі бачыць нешта небяспечнае. (6) Ён можа ідэнтыфікаваць людзей, дэльфінаў, лодкі, дошкі для серфінгу і аб'екты ў вадзе, каб адрозніць іх ад акул. Ён можа выяўляць і ідэнтыфікаваць каля шаснаццаці розных відаў з высокай дакладнасцю.

6. Распазнаныя акулы ў сістэме SharkSpotter

Гэтыя перадавыя метады машыннага навучання павышаюць дакладнасць паветранай разведкі больш як на 90 працэнтаў. Для параўнання, чалавек-аператар у аналагічнай сітуацыі дакладна распазнае 20-30% аб'ектаў на аэрафотаздымках. Акрамя таго, ідэнтыфікацыя па-ранейшаму правяраецца чалавекам да падачы сігналу трывогі.

На полі бою аператар, бачачы малюнак на экране, можа з цяжкасцю вызначыць, ці з'яўляюцца людзі на зямлі байцамі з АК-47 у руках ці, напрыклад, фермерамі з пікамі. Аркін адзначае, што людзі схільныя "бачыць тое, што хочуць бачыць", асабліва ў стрэсавых сітуацыях. Гэты эфект спрыяў выпадковаму збіццю іранскага самалёта авіяносцам «Вінсэнэс» у 1987 годзе. Вядома, на яго думку, зброя, якую кіруе ІІ, была б лепшай, чым цяперашнія «разумныя бомбы», якія насамрэч не разумныя. У жніўні мінулага года саудаўская ракета з лазерным навядзеннем патрапіла ў аўтобус, поўны школьнікаў у Емене, у выніку чаго загінула сорак дзяцей.

"Калі школьны аўтобус мае правільную маркіроўку, яго ідэнтыфікацыя ў аўтаномнай сістэме можа быць адносна лёгкай", – сцвярджае Аркін у Popular Mechanics.

Аднак гэтыя довады, здаецца, не пераконваюць удзельнікаў кампаніі супраць аўтаматычных забойцаў. Акрамя пагрозы робатаў-забойцаў, неабходна ўлічваць яшчэ адна важная акалічнасць. Нават "добрая" і "ўважлівая" сістэма можа быць узламана і захоплена вельмі дрэннымі людзьмі. Тады ўсе аргументы ў абарону вайсковай тэхнікі губляюць сілу.

Дадаць каментар