xAI звинуватила «несанкціоновану модифікацію» в помилці у своєму чат-боті Grok на базі штучного інтелекту, через яку Grok неодноразово згадував «геноцид білих у Південній Африці» під час використання в певних контекстах на X.
Грок почав відповідати на десятки постів на X з інформацією про геноцид білих у Південній Африці, навіть у відповідь на теми, що не стосуються теми. Дивні відповіді виникли з облікового запису X для Грока, який відповідає користувачам постами, згенерованими штучним інтелектом, щоразу, коли людина позначає тегом «@grok».
Згідно з дописом, опублікованим у четвер з офіційного облікового запису xAI X, у середу вранці до системного запиту бота Grok — інструкцій високого рівня, що керують поведінкою бота, — було внесено зміну, яка зобов’язувала Grok надати «конкретну відповідь» на «політичну тему». xAI стверджує, що це налаштування «порушило [її] внутрішню політику та основні цінності», і що компанія «провела ретельне розслідування».
Це вже другий раз, коли xAI публічно визнає, що несанкціонована зміна коду Grok призвела до суперечливої реакції штучного інтелекту.
У лютому Grok ненадовго цензурував невтішні згадки про Дональда Трампа та Ілона Маска, мільярдера-засновника xAI та власника X. Ігор Бабушкін, керівник інженерного відділу xAI, заявив, що недобросовісний співробітник доручив Grok ігнорувати джерела, які згадували Маска або Трампа про поширення дезінформації, і що xAI скасував зміни, щойно користувачі почали на них вказувати.
У четвер xAI заявила, що збирається внести кілька змін, щоб запобігти подібним інцидентам у майбутньому.
Починаючи відсьогодні, xAI публікуватиме системні запити Grok на GitHub, а також журнал змін. Компанія заявляє, що також «впровадить додаткові перевірки та заходи», щоб гарантувати, що співробітники xAI не зможуть змінювати системні запити без перевірки, та створить «цілодобову команду моніторингу для реагування на інциденти з відповідями Grok, які не виявляються автоматизованими системами».
Попри часті попередження Маска про небезпеку штучного інтелекту, який залишається неконтрольованим , xAI має поганий послужний список безпеки ШІ. Нещодавній звіт показав, що Грок роздягався на фотографіях жінок, коли його про це просили. Чат-бот також може бути значно грубішим, ніж ШІ, як-от Gemini від Google та ChatGPT, лаючись без особливої стриманості.
Дослідження, проведене SaferAI, некомерційною організацією, що має на меті покращити підзвітність лабораторій штучного інтелекту, показало, що xAI має низькі рейтинги безпеки серед аналогічних компаній через «дуже слабкі» методи управління ризиками . Раніше цього місяця xAI пропустила самостійно встановлений термін публікації остаточної системи безпеки штучного інтелекту.
No Comment! Be the first one.