Користувачі Anthropic можуть відмовитися від розсилки або поділитися своїми чатами для навчання ШІ

30 августа 2025
4 Mins Read
18 Views

Anthropic вносить деякі суттєві зміни в обробку даних користувачів, вимагаючи від усіх користувачів Claude до 28 вересня вирішити, чи хочуть вони, щоб їхні розмови використовувалися для навчання моделей штучного інтелекту. Хоча компанія направила нас до своєї публікації в блозі про зміни в політиці, коли її запитали про те, що спонукало до цього кроку, у нас виникли власні теорії.

Але спочатку, що змінюється: раніше Anthropic не використовувала дані чатів споживачів для навчання моделей. Тепер компанія хоче навчати свої системи штучного інтелекту на розмовах користувачів та сеансах кодування, і заявила, що продовжує термін зберігання даних до п’яти років для тих, хто не відмовиться від цієї можливості.

Це масштабне оновлення. Раніше користувачам споживчих продуктів Anthropic повідомляли, що їхні запити та результати розмов будуть автоматично видалені з серверної частини Anthropic протягом 30 днів, «якщо їх зберігання не вимагається законом або політикою», або якщо їхні дані будуть позначені як такі, що порушують політику, і в такому разі введені та виведені користувачем дані можуть зберігатися до двох років.

Під споживачем ми маємо на увазі, що нові правила застосовуються до користувачів Claude Free, Pro та Max, включаючи тих, хто використовує Claude Code. Бізнес-клієнти, які використовують Claude Gov, Claude for Work, Claude for Education або API, не постраждають, таким чином OpenAI аналогічно захищає корпоративних клієнтів від політик навчання даних.

То чому ж це відбувається? У цій публікації про оновлення Anthropic описує зміни, пов’язані з вибором користувача, зазначаючи, що, не відмовляючись, користувачі «допоможуть нам покращити безпеку моделей, зробивши наші системи виявлення шкідливого контенту точнішими та зменшивши ймовірність позначати нешкідливі розмови». Користувачі «також допоможуть майбутнім моделям Claude покращити такі навички, як кодування, аналіз та міркування, що зрештою призведе до кращих моделей для всіх користувачів».

Коротко кажучи, допоможіть нам допомогти вам. Але повна правда, ймовірно, трохи менш безкорислива.

Як і будь-яка інша велика компанія з розробки мовних моделей, Anthropic потребує даних більше, ніж людей, які мають нечіткі почуття щодо її бренду. Навчання моделей штучного інтелекту вимагає величезної кількості високоякісних розмовних даних, і доступ до мільйонів взаємодій Claude має забезпечити саме той реальний контент, який може покращити конкурентні позиції Anthropic порівняно з такими конкурентами, як OpenAI та Google.

Окрім конкурентного тиску з боку розробників штучного інтелекту, зміни також, схоже, відображають ширші галузеві зміни в політиці даних, оскільки такі компанії, як Anthropic та OpenAI, стикаються з дедалі більшою перевіркою щодо своєї практики зберігання даних. OpenAI, наприклад, зараз бореться із судовим наказом, який зобов’язує компанію зберігати всі розмови користувачів ChatGPT на невизначений термін, включаючи видалені чати, через позов, поданий The New York Times та іншими видавцями.

У червні операційний директор OpenAI Бред Лайткеп назвав це « радикальною та непотрібною вимогою », яка «фундаментально суперечить зобов’язанням щодо конфіденційності, які ми взяли на себе перед нашими користувачами». Судове рішення стосується користувачів ChatGPT Free, Plus, Pro та Team, хоча корпоративні клієнти та ті, хто має угоди про нульове зберігання даних, все ще захищені.

Тривожним є те, скільки плутанини створюють усі ці зміни в правилах використання для користувачів, багато з яких досі не звертають на них уваги.

Справедливості заради, зараз усе відбувається швидко, тому зі зміною технологій політика конфіденційності обов’язково зміниться. Але багато з цих змін є досить масштабними та згадуються лише побіжно на тлі інших новин компаній. (Ви б не подумали, що зміни політики у вівторок для користувачів Anthropic були такою вже й великою новиною, враховуючи, де компанія розмістила це оновлення на своїй прес-сторінці.)

Автори зображень: Anthropic

Але багато користувачів не усвідомлюють, що правила, з якими вони погодилися, змінилися, оскільки дизайн практично це гарантує. Більшість користувачів ChatGPT продовжують натискати перемикачі «видалити», які технічно нічого не видаляють. Тим часом, реалізація нової політики Anthropic дотримується знайомої схеми.

Як так? Нові користувачі оберуть свої налаштування під час реєстрації, але існуючі користувачі стикаються зі спливаючим вікном із великим текстом «Оновлення Умов та політик для споживачів» та помітною чорною кнопкою «Прийняти» з набагато меншим перемикачем дозволів на навчання нижче, написаним меншим шрифтом, який автоматично встановлюється в положення «Увімкнено».

Як зазначав раніше сьогодні The Verge, дизайн викликає занепокоєння, що користувачі можуть швидко натиснути «Прийняти», не помітивши, що вони погоджуються на обмін даними.

Тим часом ставки для обізнаності користувачів надзвичайно високі. Експерти з питань конфіденційності давно попереджають, що складність, яка оточує штучний інтелект, робить отримання змістовної згоди користувачів практично недосяжним. За часів адміністрації Байдена Федеральна торгова комісія навіть втрутилася, попередивши , що компанії, що займаються штучним інтелектом, ризикують бути залученими до примусових заходів, якщо вони «таємно змінюватимуть умови надання послуг або політику конфіденційності, або ховатимуть розкриття інформації за гіперпосиланнями, написаними юридичною термінологією чи дрібним шрифтом».

Чи стежить комісія, яка зараз має лише трьох із п’яти своїх членів, за цими практиками, залишається відкритим питанням, яке ми поставили безпосередньо Федеральній торговій комісії (FTC).

internetua.com

Exit mobile version