Системи ШІ з «неприйнятним ризиком» тепер заборонені в ЄС

4 февраля 2025
4 Mins Read
12 Views

Системи ШІ з «неприйнятним ризиком» тепер заборонені в ЄС

У Європейському Союзі регулятори блоку можуть заборонити використання систем штучного інтелекту, які, на їхню думку, становлять «неприйнятний ризик» або шкоду.

2 лютого — перший кінцевий термін відповідності Закону ЄС про штучний інтелект , комплексній нормативній базі штучного інтелекту, яку Європейський парламент остаточно схвалив у березні минулого року після багатьох років розробки. Акт офіційно набув чинності 1 серпня ; те, що зараз слідує, є першим із термінів відповідності.

Специфіка викладена в статті 5 , але в широкому сенсі Закон розроблено для того, щоб охопити безліч випадків використання, де ШІ може з’являтися та взаємодіяти з окремими особами, від споживчих додатків до фізичних середовищ.

Відповідно до  підходу блоку існує чотири широкі рівні ризику: (1) мінімальний ризик (наприклад, фільтри спаму електронної пошти) не піддаватиметься регуляторному контролю; (2) обмежений ризик, який включає чат-ботів обслуговування клієнтів, матиме легкий регуляторний нагляд; (3) високий ризик — ШІ для рекомендацій у сфері охорони здоров’я є одним із прикладів — зіткнеться з жорстким регуляторним контролем; і (4) програми з неприйнятним ризиком — головна тема вимог відповідності цього місяця — будуть повністю заборонені.

Деякі з неприйнятних дій включають:

  • AI, який використовується для соціального оцінювання (наприклад, створення профілів ризику на основі поведінки людини).
  • ШІ, який маніпулює рішеннями людини підсвідомо або в оману.
  • ШІ, який використовує такі вразливі місця, як вік, інвалідність або соціально-економічний статус.
  • Штучний інтелект, який намагається передбачити скоєння злочинів людьми на основі їх зовнішнього вигляду.
  • ШІ, який використовує біометричні дані, щоб визначити характеристики людини, наприклад її сексуальну орієнтацію.
  • AI, який збирає біометричні дані «в реальному часі» в громадських місцях для цілей правоохоронних органів.
  • AI, який намагається визначити емоції людей на роботі чи в школі.
  • Штучний інтелект, який створює — або розширює — бази даних розпізнавання облич, збираючи зображення онлайн або з камер безпеки.

Компанії, які будуть використовувати будь-який із зазначених вище додатків штучного інтелекту в ЄС, будуть оштрафовані, незалежно від того, де вони розташовані. Вони можуть отримати до 35 мільйонів євро (~36 мільйонів доларів), або 7% їх річного доходу за попередній фінансовий рік, залежно від того, що більше.

Штрафи не діятимуть ще деякий час, зазначив Роб Сумрой, керівник відділу технологій британської юридичної фірми Slaughter and May, в інтерв’ю TechCrunch.

«Очікується, що організації будуть повністю відповідати вимогам до 2 лютого, але … наступний великий крайній термін, про який компанії повинні знати, — це серпень», — сказав Сумрой. «До того часу ми знатимемо, хто є компетентними органами, і штрафи та положення про примусове виконання набудуть чинності».

Попередні застави

Дедлайн 2 лютого є певною мірою формальністю.

У вересні минулого року понад 100 компаній підписали Пакт ЄС про штучний інтелект , добровільне зобов’язання почати застосовувати принципи Закону про штучний інтелект ще до початку його застосування. У рамках Пакту сторони, серед яких Amazon, Google і OpenAI, взяли на себе зобов’язання визначити системи штучного інтелекту, які, ймовірно, будуть віднесені до категорії високого ризику відповідно до Закону про штучний інтелект.

Деякі технологічні гіганти, зокрема Meta та Apple, проігнорували Пакт. Французький стартап зі штучного інтелекту Mistral , один із найсуворіших критиків Закону про штучний інтелект, також вирішив не підписувати його.

Це не означає, що Apple, Meta, Mistral чи інші, які не погодилися з пактом, не виконуватимуть своїх зобов’язань, включаючи заборону на неприйнятно ризиковані системи. Сумрой зазначає, що, враховуючи характер викладених заборонених випадків використання, більшість компаній все одно не будуть брати участь у таких практиках.

«Для організацій головне питання, пов’язане з Законом ЄС про штучний інтелект, полягає в тому, чи будуть чіткі вказівки, стандарти та кодекси поведінки надійшли вчасно — і, що важливо, чи забезпечать вони організаціям ясність щодо відповідності», — сказав Сумрой. «Однак робочі групи поки що дотримуються встановлених термінів щодо кодексу поведінки для … розробників».

Можливі винятки

Існують винятки з кількох заборон Закону про штучний інтелект.

Наприклад, Закон дозволяє правоохоронним органам використовувати певні системи, які збирають біометричні дані в громадських місцях, якщо ці системи допомагають виконувати «цілеспрямований пошук», скажімо, жертви викрадення, або допомагають запобігти «конкретній, суттєвій і неминучій» загрозі до життя. Цей виняток потребує дозволу відповідного керівного органу, і Закон наголошує, що правоохоронні органи не можуть ухвалювати рішення, яке «спричиняє несприятливі юридичні наслідки» для особи виключно на основі результатів цих систем.

Закон також передбачає винятки для систем, які викликають емоції на робочих місцях і в школах, де є «медичне або безпекове» обґрунтування, як-от системи, призначені для терапевтичного використання.

Європейська комісія, виконавча гілка влади ЄС, заявила, що опублікує додаткові рекомендації «на початку 2025 року» після консультацій із зацікавленими сторонами в листопаді. Однак ці рекомендації ще не опубліковані.

Сумрой сказав, що також незрозуміло, як інші закони в книгах можуть взаємодіяти із заборонами Закону про штучний інтелект та відповідними положеннями. Ясність може бути з’ясована лише пізніше цього року, оскільки наближається вікно виконання.

«Для організацій важливо пам’ятати, що регулювання штучного інтелекту не існує ізольовано», — сказав Сумрой. «Інші законодавчі рамки, такі як GDPR, NIS2 і DORA, взаємодіятимуть із Законом про штучний інтелект, створюючи потенційні проблеми — зокрема, щодо дублювання вимог сповіщення про інциденти. Розуміння того, як ці закони поєднуються один з одним, буде таким же важливим, як і розуміння самого Закону про штучний інтелект».

internetua.com

Exit mobile version