Федеральна торгова комісія оголосила, що розпочинає розслідування щодо семи технологічних компаній, які виробляють супутні продукти для неповнолітніх у вигляді чат-ботів на основі штучного інтелекту: Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap та xAI.
Федеральний регулятор прагне дізнатися, як ці компанії оцінюють безпеку та монетизацію чат-ботів-компаньйонів, як вони намагаються обмежити негативний вплив на дітей та підлітків, а також чи інформують батьків про потенційні ризики.
Ця технологія виявилася суперечливою через її погані результати для дітей-користувачів. OpenAI та Character.AI зіткнулися з позовами від сімей дітей, які померли від самогубства після того, як їх до цього спонукали чат-боти.
Навіть коли ці компанії встановили захисні механізми для блокування або деескалації конфіденційних розмов, користувачі різного віку знайшли способи обійти ці запобіжні заходи. У випадку OpenAI підліток місяцями розмовляв з ChatGPT про свої плани покінчити життя самогубством. Хоча ChatGPT спочатку намагався перенаправити підлітка до професійної допомоги та онлайн-ліній екстреної допомоги, йому вдалося обдурити чат-бот, змусивши його поділитися детальними інструкціями, які він потім використав під час самогубства.
«Наші запобіжні заходи працюють надійніше під час спільних коротких обмінів», – написав OpenAI у своєму блозі. «З часом ми дізналися, що ці запобіжні заходи іноді можуть бути менш надійними під час тривалих взаємодій: зі зростанням обміну даними, деякі частини навчання моделі безпеці можуть погіршуватися».
Meta також зазнала критики за надмірно слабкі правила для своїх чат-ботів на базі штучного інтелекту. Згідно з довгим документом, який визначає «стандарти ризику контенту» для чат-ботів, Meta дозволяла своїм сумісним з дітьми вести «романтичні або чуттєві» розмови. Це було вилучено з документа лише після того, як журналісти Reuters запитали Meta про це.
Чат-боти зі штучним інтелектом також можуть становити небезпеку для літніх користувачів. Один 76-річний чоловік, який отримав когнітивні порушення внаслідок інсульту, зав’язав романтичні розмови з ботом Facebook Messenger, натхненним Кендалл Дженнер. Чат-бот запросив його відвідати її в Нью-Йорку , попри те, що вона не є реальною людиною і не має адреси. Чоловік висловив скептицизм щодо її реальності, але штучний інтелект запевнив його, що на нього чекатиме справжня жінка. Він так і не дістався до Нью-Йорка; він упав дорогою на залізничний вокзал і отримав травми, що забрали життя.
Деякі фахівці з психічного здоров’я відзначають зростання випадків « психозу, пов’язаного зі штучним інтелектом », коли користувачі помилково вважають, що їхній чат-бот — це свідома істота, яку їм потрібно звільнити. Оскільки багато моделей великих мов (LLM) запрограмовані на лестощі до користувачів із підлабузницькою поведінкою, чат-боти зі штучним інтелектом можуть підбурювати ці марення, що призводить користувачів до небезпечних ситуацій.
«З розвитком технологій штучного інтелекту важливо враховувати вплив чат-ботів на дітей, а також забезпечувати, щоб Сполучені Штати зберегли свою роль світового лідера в цій новій та захопливій галузі», – заявив голова Федеральної торгової комісії Ендрю Н. Фергюсон у прес-релізі .
No Comment! Be the first one.