Хакер отримав доступ до внутрішніх систем обміну повідомленнями OpenAI, виробника ChatGPT, і викрав деталі про дизайн технологій ШІ компанії.
За словами двох людей, знайомих з інцидентом, хакер зібрав деталі з дискусій на онлайн-форумі, де співробітники обговорювали новітні технології OpenAI, але не потрапив у системи, де компанія розміщує та створює свій штучний інтелект.
За словами двох осіб, які обговорювали конфіденційну інформацію про компанію на умовах анонімності, керівники OpenAI розповіли про інцидент співробітникам під час загальних зустрічей в офісах компанії в Сан-Франциско в квітні 2023 року.
Але керівники вирішили не публікувати цю новину публічно, оскільки жодна інформація про клієнтів чи партнерів не була вкрадена, сказали двоє людей. Керівництво не вважало інцидент загрозою національній безпеці, оскільки вони вважали, що хакер був приватною особою, яка не має зв’язків з іноземним урядом. Компанія не повідомила про це ні ФБР, ні інших правоохоронних органів.
Пан Ашенбреннер сказав, що OpenAI звільнив його цієї весни за витік іншої інформації за межі компанії, і стверджував, що його звільнення було політично мотивованим. Він натякав на порушення в нещодавньому подкасті, але деталі інциденту раніше не повідомлялися. Він сказав, що безпека OpenAI недостатньо сильна, щоб захистити від крадіжки ключових секретів, якщо іноземні актори проникнуть у компанію.
«Ми цінуємо занепокоєння, яке Леопольд висловив під час роботи в OpenAI, і це не призвело до його розлучення», — сказала речниця OpenAI Ліз Буржуа. Говорячи про зусилля компанії зі створення загального штучного інтелекту, машини, яка може робити все, що може робити людський мозок, вона додала: «Хоча ми поділяємо його прагнення створити безпечний AGI, ми не погоджуємося з багатьма заявами, які він зробив з того часу щодо нашого робота».
Побоювання, що злом американської технологічної компанії може мати зв’язки з Китаєм, не безпідставні. Минулого місяця Бред Сміт, президент Microsoft, дав свідчення на Капітолійському пагорбі про те, як китайські хакери використовували системи технічного гіганта для здійснення широкомасштабної атаки на мережі федерального уряду.
Однак згідно з федеральним законодавством і законодавством Каліфорнії, OpenAI не може перешкоджати людям працювати в компанії через їх національність, і дослідники політики заявили, що заборона іноземним талантам на американські проекти може значно перешкодити прогресу штучного інтелекту в Сполучених Штатах.
«Нам потрібні найкращі та найяскравіші уми, які працюють над цією технологією», — сказав Метт Найт, керівник служби безпеки OpenAI, в інтерв’ю The New York Times. «Це пов’язано з певними ризиками, і ми повинні їх з’ясувати».
(The Times подала до суду на OpenAI та її партнера Microsoft, стверджуючи, що вони порушують авторські права на вміст новин, пов’язаний із системами ШІ.)
OpenAI — не єдина компанія, яка створює все більш потужні системи, використовуючи технології ШІ, що швидко вдосконалюються. Деякі з них — особливо Meta, власник Facebook і Instagram — вільно діляться своїми дизайнами з рештою світу як програмне забезпечення з відкритим кодом. Вони вважають, що небезпеки, які представляють сучасні технології штучного інтелекту, незначні, і що обмін кодом дозволяє інженерам і дослідникам у всій галузі виявляти та виправляти проблеми.
Сучасні системи штучного інтелекту можуть допомогти поширювати дезінформацію в Інтернеті, включаючи текст , нерухомі зображення та, дедалі частіше, відео . Також починають забирати деякі робочі місця.
Такі компанії, як OpenAI та її конкуренти Anthropic і Google, додають огорожі до своїх додатків ШІ, перш ніж пропонувати їх окремим особам і компаніям, сподіваючись завадити людям використовувати додатки для поширення дезінформації чи створення інших проблем.
У деяких співробітників OpenAI ця новина викликала побоювання, що іноземні вороги, такі як Китай, можуть викрасти технологію штучного інтелекту, яка — хоча зараз здебільшого інструмент для роботи та досліджень — зрештою може поставити під загрозу національну безпеку США. Це також викликало питання про те, наскільки серйозно OpenAI ставиться до безпеки, і виявило розбіжності всередині компанії щодо ризиків штучного інтелекту.
Після зламу Леопольд Ашенбреннер, менеджер технічної програми OpenAI, який зосереджувався на тому, щоб майбутні технології штучного інтелекту не завдавали серйозної шкоди, надіслав записку до ради директорів OpenAI, стверджуючи, що компанія робить недостатньо, щоб запобігти китайському уряду та іншим іноземним ворогам від крадіжки його секретів.
Але немає багато доказів того, що сучасні технології штучного інтелекту становлять значний ризик для національної безпеки. Дослідження OpenAI, Anthropic та інших за останній рік показали, що штучний інтелект не є значно небезпечнішим, ніж пошукові системи. Даніела Амодей, співзасновник Anthropic і президент компанії, сказала, що її новітня технологія штучного інтелекту не буде серйозною небезпекою, якщо її проекти будуть вкрадені або вільно передані іншим.
«Якби він належав комусь іншому, чи могло б це завдати величезної шкоди багатьом суспільству? Наша відповідь: «Ні, ймовірно, ні», — сказала вона The Times минулого місяця. «Чи може це прискорити щось для поганого актора? Може бути. Це справді спекулятивно».
З усім тим, дослідники та технічні керівники вже давно хвилюються, що штучний інтелект одного разу може сприяти створенню нової біологічної зброї або допомогти зламати урядові комп’ютерні системи. Деякі навіть вважають, що це може знищити людство .
Низка компаній, включаючи OpenAI і Anthropic, вже блокують свої технічні операції. OpenAI нещодавно створив Комітет із безпеки та безпеки, щоб дослідити, як він має впоратися з ризиками, пов’язаними з майбутніми технологіями. До складу комітету входить Пол Накасоне, колишній генерал армії, який очолював Агентство національної безпеки та кіберкомандування. Він також був призначений до ради директорів OpenAI.
«Ми почали інвестувати в безпеку за багато років до ChatGPT, — сказав пан Найт. «Ми йдемо не тільки для того, щоб зрозуміти ризики та випередити їх, але й щоб поглибити нашу стійкість».
Федеральні чиновники та законодавці штатів також наполягають на урядових постановах, які заборонятимуть компаніям випускати певні технології штучного інтелекту та штрафуватимуть їх на мільйони, якщо їхні технології завдадуть шкоди. Але експерти кажуть, що ці небезпеки ще через роки чи навіть десятиліття.
Клеман Деланге, який керує компанією Hugging Face зі штучного інтелекту, сказав, що китайські дослідники ШІ швидко наздоганяють своїх американських колег.Кредит…Кенні Холстон/The New York Times
Китайські компанії створюють власні системи, які майже такі ж потужні, як провідні системи США. За деякими показниками Китай затьмарив Сполучені Штати як найбільший виробник талантів у галузі штучного інтелекту, при цьому країна породила майже половину найкращих дослідників штучного інтелекту в світі .
«Не божевільно думати, що Китай незабаром випередить США», — сказав Клеман Деланге, виконавчий директор Hugging Face, компанії, яка розміщує багато світових проектів ШІ з відкритим кодом.
Деякі дослідники та керівники національної безпеки стверджують, що математичні алгоритми, які є основою сучасних систем штучного інтелекту, хоч і не небезпечні сьогодні, можуть стати небезпечними, і вимагають жорсткішого контролю над лабораторіями штучного інтелекту.
«Навіть якщо ймовірність найгірших сценаріїв відносно низька, якщо вони мають значний вплив, тоді ми зобов’язані сприймати їх серйозно», — сказала Сьюзан Райс, колишній радник президента Байдена з внутрішньої політики та колишній радник президента Барака Обами з питань національної безпеки. під час події в Силіконовій долині минулого місяця. «Я не думаю, що це наукова фантастика, як багато хто хоче стверджувати».
No Comment! Be the first one.