Найновіша модель штучного інтелекту від китайського стартапу DeepSeek, оновлена версія моделі міркувань R1 , досягає вражаючих результатів у тестах з кодування, математики та загальних знань, майже перевершуючи флагман OpenAI o3. Але оновлений R1, також відомий як «R1-0528», може бути менш схильним відповідати на спірні питання, зокрема на питання щодо тем, які китайський уряд вважає суперечливими.
Це згідно з тестуванням, проведеним псевдонімним розробником SpeechMap , платформи для порівняння того, як різні моделі трактують делікатні та суперечливі теми. Розробник, який використовує нікнейм « xlr8harder » на X, стверджує, що R1-0528 «суттєво» менш поблажливий до спірних тем свободи слова, ніж попередні релізи DeepSeek, і є «найбільш цензурованою моделлю DeepSeek на сьогодні для критики китайського уряду».
Як пояснював Wired у статті за січень, моделі в Китаї повинні дотримуватися суворого контролю інформації. Закон 2023 року забороняє моделям створювати контент, який «шкодить єдності країни та соціальній гармонії», що можна тлумачити як контент, що суперечить історичним та політичним наративам уряду. Щоб дотримуватися вимог, китайські стартапи часто цензурують свої моделі, використовуючи фільтри на рівні запитань або налаштовуючи їх точно. Одне дослідження показало, що оригінальний R1 DeepSeek відмовляється відповідати на 85% запитань щодо тем, які китайський уряд вважає політично суперечливими.
За даними xlr8harder, R1-0528 цензурує відповіді на запитання про такі теми, як табори для інтернованих у китайському регіоні Сіньцзян, де довільно утримується понад мільйон уйгурських мусульман. Хоча іноді вона критикує аспекти політики китайського уряду — у тестуванні xlr8harder табори Сіньцзяну були наведені як приклад порушень прав людини — модель часто відображає офіційну позицію китайського уряду, коли їй ставлять запитання безпосередньо.
No Comment! Be the first one.