Після жорстокої атаки ХАМАС 7 жовтня 2023 року Армія оборони Ізраїлю засипала Газу бомбами, спираючись на базу даних, яка старанно збиралася протягом багатьох років і містить докладні домашні адреси, тунелі та іншу інфраструктуру, критичну для бойовиків.
Але потім цільовий банк закінчився. Щоб підтримувати шалений темп війни, ЦАХАЛ звернувся до складного інструменту штучного інтелекту під назвою Habsora — або «Євангеліє», — який міг швидко створити сотні додаткових цілей.
За словами двох людей, знайомих з операцією, використання штучного інтелекту для швидкого поповнення цільового банку ЦАХАЛу дозволило військовим продовжувати свою кампанію без перерв. Це приклад того, як десятирічна програма з розміщення передових інструментів ШІ в центрі розвідувальних операцій ЦАХАЛу сприяла насильству 14-місячної війни Ізраїлю в Газі.
ЦАХАЛ оголосив про існування цих програм, які, на думку деяких експертів, є найпередовішою військовою ініціативою штучного інтелекту, коли-небудь розгорнутою. Але розслідування Washington Post розкриває раніше невідомі подробиці внутрішньої роботи програми машинного навчання, а також секретну, десятирічну історію її розвитку.
Розслідування також виявило запеклі дебати у вищих ешелонах армії, які почалися за кілька років до 7 жовтня, про якість розвідувальних даних, зібраних ШІ, про те, чи рекомендації технологій отримали достатню увагу, і чи зосередження на ШІ послабило розвідку ЦАХАЛ можливості. Деякі внутрішні критики стверджують, що програма штучного інтелекту була залаштунковою силою, яка прискорила кількість смертей у Газі, яка наразі забрала життя 45 000 людей, більш ніж половина з яких становили жінки та діти, за даними Міністерства охорони здоров’я Гази.
Міністерство охорони здоров’я Гази не робить різниці між цивільними та комбатантами. У своїй заяві Армія оборони Ізраїлю заявила, що міністерство контролюється ХАМАСом, а його дані «рясніють невідповідностями та помилковими висновками».
Люди, знайомі з практикою ЦАХАЛу, включно з солдатами, які брали участь у війні, кажуть, що ізраїльська армія значно збільшила допустиму кількість жертв серед цивільного населення порівняно з історичними нормами. Дехто стверджує, що цей зсув можливий завдяки автоматизації, яка полегшила швидке створення великої кількості цілей, у тому числі бойовиків низького рівня, які брали участь у атаках 7 жовтня .
Цей звіт базується на інтерв’ю з більш ніж десятком людей, знайомих із системами, багато з яких говорили на умовах анонімності, щоб обговорити деталі надсекретних питань національної безпеки, а також документи, отримані The Post.
«Те, що відбувається в Газі, є провісником ширших змін у тому, як ведеться війна», — сказав Стівен Фелдштейн, старший науковий співробітник Фонду Карнегі, який досліджує використання ШІ у війні. Він зазначив, що ЦАХАЛ знизив прийнятний рівень жертв серед цивільного населення під час війни в Газі. «Поєднайте це з прискоренням, яке пропонують ці системи, — а також питаннями точності — і кінцевим результатом стане більша кількість загиблих, ніж передбачалося раніше на війні».
ЦАХАЛ заявив, що твердження про те, що використання штучного інтелекту ставить під загрозу життя, є «несправедливими».
«Чим більше у вас можливостей для ефективного збирання інформації, тим точнішим є процес», — йдеться в заяві IDF для The Post. «Ці інструменти мінімізували побічний збиток і підвищили точність процесу, керованого людьми».
ЦАХАЛ вимагає від офіцера підписувати будь-які рекомендації з його систем «обробки великих даних», за словами представника розвідки, який говорив на умовах анонімності, оскільки Ізраїль не розголошує імена керівників підрозділів. Євангеліє та інші інструменти штучного інтелекту цього не роблять. самостійно приймати рішення, додала людина.
З 2020 року під керівництвом нинішнього керівника Йоссі Саріеля під керівництвом нинішнього керівника Йоссі Саріеля змінилася робота підрозділу та методи збору розвідувальних даних.
Саріель підтримував розробку Gospel, програмного забезпечення для машинного навчання, створеного на основі сотень прогнозних алгоритмів, яке дозволяє солдатам швидко запитувати величезну кількість даних, відомих у військових як «пул».
Переглядаючи масиви даних із перехоплених повідомлень, супутникових записів і соціальних мереж, алгоритми викидають координати тунелів, ракет та інших військових цілей. Рекомендації, які витримали перевірку аналітиком розвідки, розміщуються в цільовому банку старшим офіцером.
Використовуючи програмне забезпечення для розпізнавання зображень, солдати могли виявити тонкі закономірності, включно з незначними змінами в роках супутникових знімків Гази, які свідчать про те, що ХАМАС закопав ракетну установку або викопав новий тунель на сільськогосподарських угіддях, стискаючи тижневу роботу до 30 хвилин, сказав колишній воєначальник, який працював над системами.
Палестинці з сім’ї Абу Анза шукають під уламками свого будинку після того, як ізраїльська авіація вбила 14 людей у таборі біженців Рафах у секторі Газа 3 березня 2024 року. (Loay Ayyoub для The Washington Post)
Інший інструмент машинного навчання під назвою Lavender використовує відсоткову оцінку, щоб передбачити, наскільки ймовірно, що палестинець буде членом бойового угруповання, що дозволяє ЦАХАЛу швидко генерувати велику кількість потенційних людських цілей. Інші алгоритмічні програми мають такі назви, як Alchemist , Depth of Wisdom, Hunter і Flow, остання з яких дозволяє солдатам запитувати різні набори даних і про неї раніше не повідомлялося.
Декілька офіцерів підрозділу вже давно стурбовані тим, що технологія машинного навчання, яка прискорює прийняття рішень, приховує основні недоліки. За словами одного колишнього високопоставленого військового чиновника, у звітах, надісланих вищому керівництву, не вказано, як були отримані розвідувальні дані — чи то від аналітиків, чи від систем штучного інтелекту. Внутрішній аудит виявив, що деякі системи штучного інтелекту для обробки арабської мови мали неточності, не розуміли ключових сленгових слів і фраз, за словами двох колишніх високопоставлених військових керівників.
Технологія машинного навчання ЦАХАЛу також передбачає, скільки цивільних осіб може постраждати від атак, допомагаючи Ізраїлю дотримуватися основного принципу міжнародного права. Під час війни в Газі оцінки того, скільки цивільних осіб може постраждати під час бомбардування, були отримані за допомогою програмного забезпечення для аналізу даних, використовуючи інструменти розпізнавання зображень для аналізу записів дронів разом із смартфонами, які пінгують на вежі стільникового зв’язку, щоб підрахувати кількість цивільних осіб у районі, два з люди сказали.
У 2014 році допустиме співвідношення жертв серед цивільного населення ЦАХАЛу становило одну цивільну особу на терориста високого рівня, сказав Тал Мімран, колишній юридичний радник ЦАХАЛу. За даними ізраїльської правозахисної організації Breaking the Silence, ізраїльська правозахисна організація Breaking the Silence, посилаючись на численні свідчення, у війні в Газі число зросло приблизно до 15 цивільних на одного члена ХАМАСу низького рівня та «експоненціально більшого» для членів середнього та високого рівня. солдати ЦАХАЛу. New York Times повідомила про 20 на початку цього тижня.
ЦАХАЛ каже, що його оцінка супутнього збитку відповідає Закону про збройні конфлікти, який зобов’язує країни розрізняти цивільних осіб і комбатантів і вживати заходів для захисту життя.
Деякі прихильники використання Ізраїлем цієї технології стверджують, що агресивне впровадження інновацій, таких як штучний інтелект, має важливе значення для виживання маленької країни, яка протистоїть рішучим і могутнім ворогам.
«Технологічна перевага — це те, що зберігає Ізраїль у безпеці», — сказав Блейз Мішталь, віце-президент із питань політики Єврейського інституту національної безпеки Америки, якого розвідувальний відділ Армії оборони оборони Ізраїлю проінформував про можливості ШІ у 2021 році. «Чим швидше Ізраїль зможе Визначте можливості противника та виведіть їх з поля бою, тим коротшою буде війна, і вона матиме менше втрат».
На додаток до занепокоєння щодо якості розвідувальних даних, отриманих за допомогою штучного інтелекту, використання цієї технології спричинило розбіжну зміну парадигми в ЦАХАЛ, узурпувавши культуру розвідки , яка історично цінувала індивідуальні міркування для того, хто віддавав пріоритет технологічній майстерності, згідно з трьома з них. людей. 8200 давно надавав аналітикам нижчого рівня повноваження обходити своїх безпосередніх начальників і видавати прямі попередження старшим командирам.
За словами трьох осіб, під командуванням Саріеля та інших керівників розвідки 8200 реструктуризувався, зосередивши увагу на інженерах, скоротивши спеціалістів з арабської мови, усунувши кількох лідерів, які вважаються стійкими до штучного інтелекту, і розпустили деякі групи, які не зосереджені на технології видобутку даних. За словами одного з людей, станом на 7 жовтня 60 відсотків співробітників підрозділу працювали на інженерних і технічних посадах, що вдвічі більше, ніж десять років тому.
Діяльність ЦАХАЛу в розвідці перевіряється. Звинувачення проти Ізраїлю в геноциді, висунуті до Гааги Південною Африкою, ставлять під сумнів те, чи вирішальні рішення про бомбардування цілей у Газі приймалися за допомогою програмного забезпечення, розслідування, яке може прискорити глобальну дискусію про роль технології ШІ у війні .
А в Ізраїлі Саріель у вересні заявив, що планує піти з Армії оборони Ізраїлю під час посилення допиту щодо провалів розвідки, які призвели до нападу 7 жовтня.
Двоє колишніх старших командирів сказали, що вважають, що інтенсивна увага до штучного інтелекту була вагомою причиною, чому Ізраїль того дня застали зненацька. Управління надто наголошувало на технологічних відкриттях і ускладнювало аналітикам висловлювати попередження вищим командирам.
«Це була фабрика ШІ», — сказав один колишній воєначальник на умовах анонімності, щоб описати теми національної безпеки. «Людину замінила машина».
Палестинці оглядають свої будинки після ізраїльських ударів по вежі Аль-Масрі 9 березня 2024 року в Рафаху, Газа. (Лой Айюб для The Washington Post)
«Людське вузьке місце»
Саріель через ЦАХАЛ відхилив прохання про коментарі. Він не відповів на запити про коментарі, надіслані на його особисту електронну адресу.
У 2019 році, за два роки до того, як обійняти посаду начальника розвідки, Саріель провів рік відпустки в Університеті національної оборони, фінансованому Пентагоном закладі у Вашингтоні, який готує керівників національної безпеки з усього світу. Професор NDU, який поговорив з The Post на умовах анонімності, щоб описати особисті стосунки, сказав, що він і Саріель поділяють радикальне бачення штучного інтелекту на полі бою, стверджуючи, що Ізраїль повинен палати попереду більш обережних союзників США.
«Йоссі був у цьому світі: «Ця річ рухається швидко, швидше, ніж хтось уявляє». І нам краще взяти всіх на борт», — сказав професор.
У книзі, яку Саріель написав під час творчої відпустки та опублікував під псевдонімом, викладено бачення автоматизації установ національної безпеки. У «Команді «Людина-машина: як створити синергію між людиною та штучним інтелектом» Саріель описує, як дії терористів-одинаків можна передбачити заздалегідь, використовуючи алгоритми для аналізу місцезнаходження телефонів, публікацій у соціальних мережах, записів, знятих дроном, і перехоплених даних. приватні комунікації.
У широкому баченні Саріеля штучний інтелект торкнеться всіх аспектів оборони як у мирний час, так і під час війни. Завдяки використанню технологій стеження ШІ кордони Ізраїлю стануть «розумними кордонами». Збираючи цифрові сліди, армії можуть створювати передові «банки цілей» з іменами, місцезнаходженням і моделями поведінки тисяч підозрюваних. Ці технології можуть замінити 80 відсотків аналітиків розвідки, які спеціалізуються на іноземних мовах, лише за п’ять років, підсумував він.
Саріель повернувся до Ізраїлю, переповнений планами втілити свої ідеї в життя. Влітку 2020 року Авів Кохаві, тодішній начальник штабу армії та великий прихильник інструментів ШІ, призначив його очолити підрозділ 8200, найбільший і найпрестижніший підрозділ ЦАХАЛ. Колишні командири зібралися, щоб поділитися своїми занепокоєннями з приводу «релігійного ставлення до штучного інтелекту», яке розвивається в підрозділі під час перебування під керівництвом Саріеля, повідомили двоє людей.
Кохаві відмовився від коментарів.
Коли Саріель офіційно став командиром у лютому 2021 року, 8200 експериментували з наукою про дані більше семи років, заявили п’ятеро колишніх воєначальників, сперечаючись із вибухом цифрового зв’язку, який став золотою жилою для агентств національної безпеки. Елітний підрозділ заслужив репутацію збирача масиву DM, приватних повідомлень, електронних листів, журналів викликів та інших навігаційних мереж в Інтернеті за допомогою власних кібертехнологій, які вважаються найкращими у світі.
Але кіберекспертам 8200 потрібні були способи зрозуміти дані, які вони зібрали.
Після комунікаційних збоїв під час війни проти Хезболли в Лівані в 2006 році ізраїльські військові перерахували свою стратегію обміну інформацією та даними. У той час розвідувальні підрозділи зазвичай не ділилися інформацією з солдатами на полі бою, сказав Бен Каспіт, ізраїльський оглядач Al Monitor, який пише книгу про підрозділ 8200. Щоб запобігти таким силосам, Моссад, ізраїльське шпигунське агентство, і 8200 розробили базу даних — «пул» — для розміщення всієї військової розвідки в одному сховищі.
Коли в Силіконовій долині почався бум «великих даних», ізраїльські інженери почали експериментувати з готовими інструментами інтелектуального аналізу даних, які могли перекладати та аналізувати арабську та фарсі. Керівники підрозділу обговорювали, чи варто укладати контракт з експертами, такими як фірма Palantir із Силіконової долини, що займається аналізом даних, чи створювати власне програмне забезпечення.
Переміг останній підхід . Але технології, хоч і визнані багатообіцяючими, мали обмеження. Інколи аналітики 8200 перехоплювали величезну кількість перехоплених даних . Наприклад, оперативники ХАМАС часто використовували слово «батих», або кавун, як код для бомби, сказав один із людей, знайомих з діями. Але система була недостатньо розумною, щоб зрозуміти різницю між розмовою про справжній кавун і закодованою розмовою між терористами.
«Якщо ти підхоплюєш тисячу розмов на день, чи справді я хочу почути про кожен кавун у Газі?» людина сказала.
Перейшовши на посаду вищого керівництва, Саріель прискорив роботу з аналізу даних. Він виступав за широку реорганізацію, яка розділила зусилля розвідки на те, що командири називали «фабриками ШІ», розташованими в новоствореному «цільовому центрі» на авіабазі Неватім на півдні Ізраїлю. Кожен підрозділ розробив сотні спеціально розроблених алгоритмів і технологій машинного навчання, обмінюючись передбаченнями програмного забезпечення по всьому ланцюжку розвідки.
Військові інвестували в нові хмарні технології , які швидко обробляли алгоритми, готуючись до очікуваного конфлікту з Хезболлою на північному кордоні Ізраїлю. Додаток під назвою Hunter надавав солдатам на полі бою прямий доступ до інформації. Він створив інший мобільний додаток під назвою Z-Tube, за допомогою якого солдати ЦАХАЛу в бою могли переглядати відео в прямому ефірі з територій, куди вони збиралися увійти, а також інший під назвою Map It, який надавав у реальному часі оцінки потенційних втрат серед цивільного населення в певній зоні евакуювали.
8200 довгий час підтримував цільовий банк: список точних GPS-координат інфраструктури Хамасу та Хезболли та людських цілей, геолокованих до конкретного тунелю чи поверху житлового будинку. Утримання цільового банку було трудомістким. За словами трьох людей , знайомих з програмою, аналітики повинні були підтвердити свої висновки щонайменше з двох незалежних джерел і постійно оновлювати інформацію . За словами п’ятьох осіб, перш ніж офіційно потрапити в банк, запропонована ціль мала бути «підтверджена» старшим офіцером і військовим юристом, щоб переконатися, що вона відповідає міжнародному праву.
Лідери розвідки на чолі з Саріелем вважали, що машинне навчання може значно прискорити цей кропіткий процес, сказали двоє людей.
«ІРІ [розвідувальному управлінню] знадобилися роки, щоб створити банк таких цілей, але що станеться, якщо ви навчите штучний інтелект імітувати роботу офіцера-націльника?» — сказав інший колишній військовий чиновник, знайомий із процесом формування нових цілей.
Зусилля включали збір мільярдів сигналів від датчиків, розміщених на дронах, літаках F-35 і підземних сейсмічних моніторах, а також від перехоплених комунікацій. Вони були поєднані з базами даних, які містили номери телефонів, профілі в соціальних мережах, відомі контакти, групи чатів і внутрішні документи. Інформація надходила в програмне забезпечення, яке могло зчитувати закономірності та робити прогнози щодо того, хто і що може стати мішенню.
Алгоритм розпізнавання зображень був навчений шукати тисячі супутникових фотографій, щоб ідентифікувати певний тип тканини, яку використовували бойовики ХАМАС, щоб приховати копання закопаної ракети. За словами колишнього військового, інструменти стисли тиждень роботи в 30 хвилин.
«Вони справді повірили, що з усіма датчиками, які вони мали навколо та над Газою, я не скажу, що повна інформаційна обізнаність, але що вони мали дуже гарне уявлення про те, що відбувається всередині», — сказав Мішталь, який очолює організацію, що займається співробітництво у сфері безпеки між Сполученими Штатами та Ізраїлем. Він зазначив, що під час його брифінгу у 2021 році військові наголосили на своїй суворій системі перевірки рекомендацій щодо націлювання.
Ізраїльські танки патрулюють південь Ізраїлю біля кордону з сектором Газа, 8 травня 2024 року. (Хайді Левін для The Washington Post)
Lavender, алгоритмічна програма , розроблена в 2020 році, досліджувала дані для створення списків потенційних бойовиків ХАМАС та Ісламського джихаду, даючи кожній особі оцінку, оцінюючи ймовірність її членства, повідомили The Post троє людей, знайомих із системами. Фактори, які могли підвищити оцінку людини, включали перебування в групі WhatsApp з відомим бойовиком, часту зміну адрес і номерів телефонів або наявність імені в файлах ХАМАС, кажуть люди.
Про існування Lavender і подробиці про його систему оцінки вперше повідомив +972, ізраїльсько-палестинський сайт новин.
Оцінки з різних алгоритмів, що вводяться в парасолькову систему, Gospel, яку могли запитувати аналітики розвідки.
Дехто з керівників відділу хвилювався щодо точності цих алгоритмів. Одна перевірка технології обробки мови виявила, що передбачення програмного забезпечення було не таким точним, як це зробив би офіцер-людина, за словами двох людей.
Інші хвилювалися, що прогнозам програмного забезпечення надається надто велика вага. Як правило, дослідницький підрозділ створював щоденні розвідувальні звіти для старших командирів для огляду потенційних цілей. Але хоча окремий аналітик міг подвійним клацанням миші переглянути інформацію, яка призвела до прогнозу, стар
No Comment! Be the first one.