Маск знов збрехав: Обіцяний звіт про безпеку від xAI не з’явився

15 мая 2025
2 Mins Read
14 Views

Компанія Ілона Маска, що займається штучним інтелектом, xAI, пропустила самостійно встановлений термін публікації остаточної версії системи безпеки штучного інтелекту, як зазначає наглядова група The Midas Project.

Компанія xAI не зовсім відома своєю твердою відданістю безпеці штучного інтелекту, як це зазвичай розуміють. Нещодавній звіт показав, що чат-бот компанії зі штучним інтелектом, Grok, роздягався на фотографіях жінок, коли його про це просили. Grok також може бути значно грубішим, ніж чат-боти, такі як Gemini та ChatGPT, лаючись без особливої ​​стриманості.

З усім тим, у лютому на Сеульському саміті штучного інтелекту, глобальній зустрічі лідерів та зацікавлених сторін у сфері штучного інтелекту, xAI опублікувала проект структури, в якій викладено підхід компанії до безпеки штучного інтелекту. У восьмисторінковому документі викладено пріоритети та філософію безпеки xAI, включаючи протоколи бенчмаркінгу компанії та міркування щодо розгортання моделей штучного інтелекту.

Однак, як зазначав The Midas Project у своєму блозі у вівторок, проєкт стосувався лише невизначених майбутніх моделей штучного інтелекту, «які наразі не розробляються». Більше того, в ньому не було чітко сформульовано, як xAI виявлятиме та впроваджуватиме заходи щодо зменшення ризиків, що є ключовим компонентом документа, підписаного компанією на Сеульському саміті з питань штучного інтелекту .

У проекті xAI заявила, що планує опублікувати переглянуту версію своєї політики безпеки «протягом трьох місяців» — до 10 травня. Кінцевий термін настав і минув без підтвердження на офіційних каналах xAI.

Незважаючи на часті попередження Маска про небезпеку неконтрольованого ШІ , xAI має поганий послужний список безпеки ШІ. Нещодавнє дослідження SaferAI, некомерційної організації, що має на меті покращити підзвітність лабораторій ШІ, показало, що xAI має низькі рейтинги серед аналогів через « дуже слабкі» практики управління ризиками .

Це не означає, що інші лабораторії штучного інтелекту досягають значно кращих результатів. В останні місяці конкуренти xAI, включаючи Google та OpenAI, поспішили з тестуванням безпеки та не поспішили з публікацією звітів про безпеку моделей (або взагалі пропустили публікацію звітів ). Деякі експерти висловили стурбованість тим, що уявне зниження пріоритетів зусиль щодо безпеки відбувається в той час, коли штучний інтелект є більш потужним — і, отже, потенційно небезпечним — ніж будь-коли.

internetua.com

Exit mobile version