Важливість: 
3

Категорія:

Військовий штучний інтелект: дві книги, одна дилема

2017 рік ознаменувався спалахом інтересу до застосування штучного інтелекту в військовій галузі. Про цей актуальний напрямок розвитку технологій говорили в минулому році всі: від журналістів і експертів до самих військових і президентів. Відповідно, цій «гарячої» тематиці присвячено безліч статей та інших матеріалів, але поки не так багато об'ємних праць. Тим не менш, вони є.

Влітку цього року вийшла книга Аміра Хусейна (Amir Husain), засновника і головного виконавчого директора «СпаркКогнішн» (SparkCognition), однієї з провідних компаній США по розробці штучного інтелекту, а навесні наступного року буде опублікована книга Пола Скарре (Paul Scharre), директора програми досліджень воєн майбутнього вашингтонського Центру нової американської безпеки.

Амір Хусейн - серед тих 116 експертів в галузі штучного інтелекту, хто в цьому році підписав відкритий лист в ООН, в якому говорилося, що «автономні системи летального озброєння можуть привести до третьої революції в прийомах ведення війни» і що «ми усвідомлюємо особливу відповідальність за наближення цієї грози».

Проте, Хусейн зазначив, що він виступає проти будь-яких дій, які могли б привести до уповільнення технічного прогресу. Лист, на його думку, мав на меті звернути увагу міжнародної громадськості на «потенційні небезпеки, які можуть таїти в собі автономні системи летальної зброї, і на відсутність широкої міжнародної дискусії з даного питання». Хусейн - оптиміст.

І книга Хусейна - це спроба розглянути з позитивного боку застосування штучного інтелекту в майбутніх війнах. Хусейн працював разом з колишнім командувачем силами США і НАТО в Афганістані генералом Джоном Алленом (John Allen) над створенням концепції «гіпервійни» і вважає тих, хто говорить про необхідність збереження людини в ланцюжку прийняття рішень або напівавтоматичних системах, «м'якотілими» людьми, які навіть не розуміють, що відбувається. 

Сама суть автономності - це виключення людини з ланцюжка, коли рішення треба приймати у найкоротший термін і в системи немає цього запасу секунд, щоб радитися з людиною, знищувати, наприклад, загрозу, що стрімко наближається чи ні. На полі бою виграє той, хто швидше прийме рішення і відреагує. Тут немає рівних машинам.

За словами Хусейна, автономні системи вже існують і працюють. Знаряддя «Фаланкс Гатлінг» (Phalanx Gatling) на кораблях ВМС США знищують як ракети противника, так і пілотовані літаки, розцінюючи їх як загрозу.

Система «Іджіс» (Aegis) також має автоматичний режим, який дозволяє їй відкривати вогонь не тільки по ракетам, а й по пілотованим об'єктам, і при цьому без будь-якого втручання операторів.

Так як Китай і Росія розробляють свої системи військового штучного інтелекту без огляду на моральні обмеження, то на думку автора, це не залишає шансу США і змушує Штати самим активно працювати в цьому напрямку, щоб не програти нову гонку озброєнь.

Хусейн вважає, що не треба концентруватися на обмеженнях дій автономних систем людиною, а необхідно вже з самого початку програмувати «моральні опції» в штучний інтелект.

Більш того, якщо раптом одна частина військової системи, один робот починає приймати «неетичні» рішення через помилки в програмному забезпеченні або через хакерів, то інша частина системи повинна бути здатна вимкнути або знищити «поганого» робота.

Хусейн впевнений, що військові системи майбутнього будуть більш точними, ніж сьогодні. Це будуть рої «розумних куль», які здатні вбивати ворога з фантастичною точністю.

З іншого боку, в небі і на морі людина буде визначати «сектори смерті», в яких, на його думку, немає цивільних осіб, і вже всередині сектора давати повну автономію на поразку і свободу дій військовим системам.

Об’ємні дані і прогрес в розпізнанні об'єктів машинами дозволять їм виконувати завдання ефективно і з мінімальною кількістю помилок.

При цьому автор книги говорить про те, що застосування штучного інтелекту - це не щось, що окремо відбувається в збройних силах, це - загальний тренд технологічних змін у всіх сферах життя суспільства, і нерозумно було б ігнорувати вигоду від участі автономних систем в бойових діях. Джин вже випущений з пляшки і з цим треба вчитися жити.

Скарре, колишній армійський рейнджер, ветеран війни в Іраку та Афганістані, щільно працював по темі військових роботів і штучного інтелекту з колишнім заступником міністра оборони США Бобом Уорком (Bob Work), а нині експертом з озброєнь, в своїй роботі простежує розвиток автономних систем, починаючи від німецьких торпед «Врен» (Wren, перша в світі серійна торпеда з акустичною головкою самонаведення) часів Другої світової війни і до концепту автономних роботизованих танкових армій майбутнього.

Його книга побудована на десятках інтерв'ю з провідними військовими аналітиками, комерційними розробниками, психологами, політологами, а також на особистих спостереженнях в розвитку технологій за час проходження служби в армії США.

Уже близько тридцяти країн, за даними Скарре, мають на озброєнні оборонні автономні системи, які поки що працюють під наглядом людини, і сьогодні в світі спостерігається гонка за створення наступального автономного озброєння. 

Військових підштовхує розвиток безпілотних автомобілів, машинного зору і підвищення точності в розпізнанні зображень нейронними мережами. 

Скарре також звертає увагу і на те, що Росія і концерн «Калашников» працюють над створенням бойових модулів, здатних визначати мету і автономно приймати рішення про відкриття вогню.

Окремий спектр питань - це етичні проблеми, що виникають з автоматизацією зброї. До якої міри можна делегувати машинам рішення про нанесення удару і вогню на ураження живої сили противника?

Можливо,  роботи із штучним інтелектом зможуть знищувати супротивника з неймовірною точністю, звівши нанівець «побічні втрати» в особі цивільних осіб? Або навпаки, помилка у виборі цілей штучним інтелектом може стати катастрофою і призведе до масової загибелі невинних людей?

Чи повинні відповідальні країни з демократично-ліберальним устроєм розвивати автономне озброєння? Що протиставити країнам, які не ставлять перед собою питання моралі і будуть будь-якими способами педалювати створення автономних військових систем? Легких відповідей на ці питання немає.

Скарре активно використовує термін «бійці-кентаври», коли на полі бою майбутнього разом будуть працювати і людський і штучний інтелект. Виникнення терміну бере початок від визначення гри людей-шахістів між собою при використанні комп'ютерної допомоги, яке придумав Гаррі Каспаров. У шахах це називається «Сайборг-чес» (cyborg chess), «Центаур-чес» (centaur chess) або «цифрові / шахові кентаври».

На думку Скарре, необхідно перестати думати тільки в рамках дилеми «або люди, або роботи» та намагатися знайти застосування технологій, коли людина і штучний інтелект працюють разом. Наочний приклад - це випробування роботи «Апачів» і безпілотників, коли пілоти вертольота разом з комп'ютером контролюють напівавтономну діяльність дронів.

Колишній головнокомандувач силами НАТО в Європі адмірал Джеймс Ставрідіс (James Stavridis) в рецензії до цієї книги підсумував: «Бійтеся! Дуже-дуже бійтеся!»

Ставрідіс попереджає, що світ стрімко йде до найважливішого в історії воєн перелому, коли війну буде вести штучний інтелект, а суспільство, швидше за все, до цього просто не готове.

На його думку, книга Скарре буде обговорюватися і впливати на дискусії про автономність війни ще десятки років.

Наші інтереси: 

Військова стратегія переходить на інший рівень. Потрібно бути до цього готовими.

Гравець: 
Оксана Колосовська

Новини від RedTram - для збільшення прихильників НО

Loading...
 
Форум Підтримати сайт Довідка