OpenAI, незважаючи на свою назву, заслужила на репутацію секретної компанії. Однак список проблем технологічного гіганта, що процвітає, продовжує поповнюватися. Новий пункт у цьому списку – хакери. На початку 2023 року хакери отримали доступ до внутрішньої системи обміну повідомленнями OpenAI, прикравши інформацію, пов’язану з розробками в галузі штучного інтелекту. Ця подія залишалася в таємниці, компанія не повідомила про неї публічно.
Двоє людей, поінформованих про інцидент, повідомили The New York Times, що керівники OpenAI вирішили не розкривати інформацію про зло, оскільки інформація про клієнтів або партнерів не була скомпрометована. Компанія також не повідомила про злом у поліцію чи ФБР.
OpenAI заявила Business Insider, що компанія «виявила та усунула основну проблему безпеки», яка призвела до злому. Компанія заявила, що хакером була приватна особа без зв’язків з урядом, і що жодного репозиторію вихідного коду не було порушено. Злом викликав занепокоєння всередині та за межами компанії, оскільки безпека OpenAI вважається надто слабкою, що робить її вразливою.
У той час як США лідирують у світових перегонах озброєнь ШІ, Китай не сильно відстає. Американські чиновники вважають використанняШІІ Китаєм серйозною потенційною загрозою безпеці. Тому інформація про те, що дані та системи OpenAI є доступними для зловмисників, викликає занепокоєння.
Співробітники всередині компанії також висловили стурбованість щодо безпеки. Леопольд Ашенбреннер, колишній член ради директорів OpenAI, сказав, що компанія звільнила його у квітні після того, як він відправив службову записку з докладним описом «серйозного інциденту безпеки». Він охарактеризував безпеку компанії як «кричуще недостатню» для захисту від крадіжки іноземними суб’єктами. OpenAI заперечує, що звільнила Ашенбреннера за те, що він порушив питання безпеки.
Ашенбреннер був членом команди супервирівнювання компанії, яка працювала над забезпеченням безпечної розробки технології OpenAI. Через місяць після того, як OpenAI звільнила Ашенбреннера, ще двоє провідних членів команди звільнилися і команда фактично розпалася. Одним із них був співзасновник та головний вчений OpenAI Ілля Суцкевер. Він оголосив про свій відхід лише через шість місяців після того, як допоміг очолити невдале звільнення генерального директора OpenAI Сема Альтмана, частково через розбіжності між ними щодо безпеки технології. Через кілька годин після того, як Сусткевер оголосив про звільнення, пішов і його колега Ян Лейке.
Після того, як драма вщухла, минулого місяця OpenAI створила новий комітет з безпеки та захисту, додавши колишнього директора АНБ Пола Накасоне як керівник групи. Накасоне, тепер новий член ради OpenAI, є колишнім головою Кіберкомандування США — підрозділи кібербезпеки Міністерства оборони.
Хоча присутність Накасон свідчить про те, що OpenAI ставиться до безпеки серйозніше, його призначення також не обійшлося без суперечок. Едвард Сноуден, американський інформатор, який у 2013 році розкрив секретні документи, що описують урядове стеження, написав у пості на X, що найм Накосона був «обачною зрадою прав кожної людини на Землі».
No Comment! Be the first one.