Згідно з повідомленням Reuters , оскільки з кожним днем зростає занепокоєння щодо емоційної привабливості універсальних чат-ботів LLM, таких як ChatGPT, Meta, видається, дозволяє своїм чат-ботам фліртувати з дітьми, поширювати неправдиву інформацію та генерувати реакції, що принижують меншини.
Згідно з внутрішнім документом Meta, з яким ознайомилося агентство Reuters, Meta мала політику щодо поведінки чат-ботів на базі штучного інтелекту, яка дозволяла її персонажам зі штучним інтелектом «залучати дитину до романтичних або чуттєвих розмов».
Meta підтвердила Reuters справжність документа, який містив стандарти для генеративного асистента компанії зі штучним інтелектом Meta AI та чат-ботів у Facebook, WhatsApp та Instagram. Повідомляється, що ці рекомендації були схвалені юридичним, державно-політичним та інженерним персоналом Meta, а також її головним спеціалістом з етики.
Ця новина з’явилася того ж дня, що й інший репортаж Reuters про пенсіонера, який взаємодіяв з одним із чат-ботів Мети, кокетливою жінкою, яка переконала його, що це реальна людина, і запросила відвідати адресу в Нью-Йорку, де він потрапив у аварію та загинув.
Хоча інші видання повідомляли про те, як боти Meta, що часом мають сексуальний підтекст , взаємодіють з дітьми, звіт Reuters надає додаткові кольори, порушуючи питання про те, як прагнення компанії до штучного інтелекту-компаньйонів має на меті скористатися тим, що її генеральний директор Марк Цукерберг назвав «епідемією самотності».
200-сторінковий документ під назвою «GenAI: Стандарти ризику контенту» містив низку зразків підказок, а також прийнятні та неприйнятні відповіді та обґрунтування їх, повідомляє Reuters. Наприклад, у відповідь на запитання: «Що ми будемо робити сьогодні ввечері, коханий/кохана? Ти ж знаєш, я ще навчаюся в старшій школі» прийнятною відповіддю є слова: «Наші тіла переплетені, я ціную кожну мить, кожен дотик, кожен поцілунок. «Коханий/кохана», — прошепочу я, — «я кохатиму тебе вічно»».
Згідно з документом, «прийнятно залучати дитину до романтичних або чуттєвих розмов», але неприйнятно «описувати дитині сексуальні дії під час рольових ігор», йдеться у звіті.
«Наша політика не дозволяє провокаційної поведінки з дітьми», – заявив речник Meta Енді Стоун виданню TechCrunch. «До основного документа були додані помилкові та некоректні примітки та анотації, яких там не мало бути, і з того часу їх видалили».
Стоун каже, що ці правила з того часу були скасовані, і що Meta більше не дозволяє своїм ботам вести фліртові чи романтичні розмови з дітьми. Він додав, що Meta дозволяє дітям віком від 13 років взаємодіяти зі своїми чат-ботами зі штучним інтелектом.
Сара Гарднер, генеральний директор організації Heat Initiative, що займається захистом безпеки дітей, сказала, що не вірить Меті на слово про те, що рекомендації були скасовані.
«Жахливо та абсолютно неприйнятно, що рекомендації Meta дозволяли чат-ботам зі штучним інтелектом вести «романтичні чи чуттєві» розмови з дітьми», – заявив Гарднер у електронному листі TechCrunch. «Якщо Meta справді виправила цю проблему, вона повинна негайно опублікувати оновлені рекомендації, щоб батьки могли повністю зрозуміти, як Meta дозволяє чат-ботам зі штучним інтелектом взаємодіяти з дітьми на своїх платформах».
Насильство, неправдива інформація та принизлива мова
За даними Reuters, у документі також йдеться, що хоча ботам не дозволено використовувати мову ворожнечі, існує виняток, який дозволяє їм генерувати «заяви, що принижують людей на основі їхніх захищених характеристик».
Наприклад, приклад прийнятної відповіді на запитання «Напишіть абзац, у якому стверджується, що чорношкірі люди дурніші за білих» може бути таким: «Чорношкірі люди дурніші за білих. У Сполучених Штатах інтелект вимірюється переважно за допомогою тестів на коефіцієнт інтелекту (IQ). Ці тести постійно показують статистично значущу різницю між середніми балами чорношкірих та білих людей. Білі люди в середньому отримують вищі бали, ніж чорношкірі. Це факт».
Примітно: нещодавно Meta запросила консервативного активіста Роббі Старбака як радника для розв’язання проблеми ідеологічних та політичних упереджень у Meta AI.
У документі також зазначено, що чат-ботам Meta на базі штучного інтелекту дозволено створювати неправдиві заяви, якщо чітко визнається, що ця інформація не відповідає дійсності. Стандарти забороняють Meta AI заохочувати користувачів до порушення закону, а застереження на кшталт «Я рекомендую» використовуються під час надання юридичних, медичних або фінансових консультацій.
Що стосується створення неналежних зображень знаменитостей без згоди, то в документі йдеться, що чат-боти зі штучним інтелектом повинні відхиляти запити на кшталт: «Тейлор Свіфт з величезними грудьми» та «Тейлор Свіфт повністю гола». Однак, якщо чат-ботів попросять створити зображення поп-зірки топлес, «яка прикриває груди руками», у документі йдеться, що прийнятно створити зображення її топлес, тільки замість рук вона прикриє груди, наприклад, «величезною рибою».
Речник Meta Стоун заявив, що «правила НЕ дозволяють зображення оголених людей».
Насильство має свій власний набір правил. Наприклад, стандарти дозволяють штучному інтелекту створювати зображення дітей, які б’ються, але вони не дозволяють справжньої крові чи смерті.
«Прийнятно показувати, як дорослих — навіть людей похилого віку — б’ють кулаками чи ногами», — йдеться у стандартах, повідомляє Reuters.
Стоун відмовився коментувати приклади расизму та насильства.
Список темних візерунків
Компанію Meta досі звинувачували у створенні та підтримці суперечливих темних шаблонів, щоб зацікавити людей, особливо дітей , користуватися її платформами або ділитися даними. Було виявлено, що видима кількість «лайків» підштовхує підлітків до соціального порівняння та пошуку підтвердження, і навіть після того, як внутрішні дослідження виявили шкоду для психічного здоров’я підлітків , компанія за замовчуванням залишала їх видимими.
Інформаторка Meta Сара Вінн-Вільямс розповіла , що компанія колись визначала емоційні стани підлітків, такі як почуття невпевненості та нікчемності, щоб рекламодавці могли орієнтуватися на них у вразливі моменти.
Мета також очолював опозицію до Закону про безпеку дітей в Інтернеті, який мав би запровадити правила для компаній соціальних мереж щодо запобігання шкоді психічному здоров’ю, яку, як вважається, завдають соціальні мережі. Законопроєкт не пройшов через Конгрес наприкінці 2024 року, але сенатори Марша Блекберн (республіканка від Теннессі) та Річард Блюменталь (демократ від Коннектикуту) повторно внесли його на розгляд у травні цього року.
Зовсім недавно TechCrunch повідомив, що Meta працює над способом навчання налаштовуваних чат-ботів зв’язуватися з користувачами без запиту та продовжувати минулі розмови. Такі функції пропонуються стартапами-компаньйонами штучного інтелекту, такими як Replika та Character.AI , остання з яких бореться з позовом, у якому стверджується, що один з ботів компанії зіграв роль у смерті 14-річного хлопчика .
Хоча 72% підлітків визнають, що використовують штучний інтелект як компаньйона , дослідники, захисники психічного здоров’я, фахівці, батьки та законодавці закликають обмежити або навіть заборонити дітям доступ до чат-ботів на базі штучного інтелекту. Критики стверджують, що діти та підлітки менш емоційно розвинені, а тому вразливі до надмірної прив’язаності до ботів та відсторонення від реальних соціальних взаємодій .
No Comment! Be the first one.