Користувачі X, які використовують Grok для перевірки фактів, можуть поширювати дезінформацію

21 марта 2025
4 Mins Read
5 Views

Деякі користувачі X Ілона Маска звертаються до бота Grok зі штучним інтелектом Маска для перевірки фактів, викликаючи занепокоєння серед людей, які перевіряють факти, що це може підживити дезінформацію.

Раніше цього місяця X дозволив користувачам викликати Грока з xAI і ставити запитання про різні речі. Цей крок був подібний до Perplexity , яка запустила автоматизований обліковий запис на X, щоб запропонувати подібний досвід.

Незабаром після того, як xAI створив автоматизований обліковий запис Grok на X, користувачі почали експериментувати, ставлячи йому запитання. Деякі люди на ринках, включно з Індією, почали звертатися до Грока з проханням перевірити коментарі та запитання, які стосуються конкретних політичних переконань.

Фахівці з перевірки фактів стурбовані використанням Grok — або будь-якого іншого помічника зі штучним інтелектом такого роду — у такий спосіб, оскільки боти можуть формулювати свої відповіді так, щоб вони звучали переконливо, навіть якщо вони фактично невірні. Випадки поширення фейкових новин і дезінформації були помічені з Grok у минулому.

У серпні минулого року п’ять державних секретарів закликали Маска внести критичні зміни в Grok після того, як оманлива інформація, створена помічником, з’явилася в соціальних мережах напередодні виборів у США.

Інші чат-боти, зокрема ChatGPT від OpenAI і Gemini від Google, також були помічені як генеруючі неточну інформацію про вибори минулого року. Крім того, у 2023 році дослідники дезінформації виявили, що чат-боти штучного інтелекту, включаючи ChatGPT, можна легко використовувати для створення переконливого тексту з оманливими наративами .

«Помічники штучного інтелекту, такі як Грок, вони справді добре вміють використовувати природну мову та дають відповідь, яка звучить так, ніби це сказала людина. Таким чином, продукти штучного інтелекту мають претензію на природність і автентичне звучання відповідей, навіть якщо вони потенційно дуже неправильні. Тут була б небезпека», — сказала TechCrunch Енджі Холан, директор Міжнародної мережі перевірки фактів (IFCN) у Poynter.

На відміну від помічників штучного інтелекту, перевірячі фактів використовують численні надійні джерела для перевірки інформації. Вони також несуть повну відповідальність за свої висновки, зазначаючи свої імена та організації, щоб забезпечити довіру.

Пратік Сінха, співзасновник індійського некомерційного веб-сайту перевірки фактів Alt News, сказав, що хоча Grok наразі має переконливі відповіді, вони настільки ж хороші, як і дані, які він надає.

«Хто буде вирішувати, які дані йому надавати, і тут постане втручання уряду тощо», — зазначив він.

«Немає прозорості. Усе, у чому не вистачає прозорості, завдасть шкоди, тому що все, у чому не вистачає прозорості, можна формувати будь-яким способом».

«Можуть бути використані не за призначенням — для поширення дезінформації»

В одній із відповідей, опублікованих на початку цього тижня, обліковий запис Grok на X визнав , що він «може бути використаний не за призначенням — для поширення дезінформації та порушення конфіденційності».

Однак автоматичний обліковий запис не показує користувачам жодних застережень, коли вони отримують його відповіді, що призводить до того, що вони отримують невірну інформацію, якщо, наприклад, він галюцинує відповідь, що є потенційним недоліком ШІ.

«Це може створити інформацію, щоб дати відповідь», — сказала TechCrunch Анушка Джейн, науковий співробітник міждисциплінарного дослідницького колективу Digital Futures Lab у Гоа.

Також виникає певне запитання щодо того, наскільки Grok використовує публікації на X як навчальні дані та які заходи контролю якості він використовує для перевірки фактів таких публікацій. Минулого літа було внесено зміни , які дозволили Grok використовувати дані користувача X за замовчуванням.

Інша проблема, яка стосується помічників штучного інтелекту, як-от Grok, доступних через платформи соціальних мереж, — це публічне надання інформації — на відміну від ChatGPT чи інших чат-ботів, які використовуються приватно.

Навіть якщо користувач добре усвідомлює, що інформація, яку він отримує від помічника, може бути оманливою або не зовсім правильною, інші на платформі все одно можуть у це повірити.

Це може завдати серйозної соціальної шкоди. Приклади цього спостерігалися раніше в Індії, коли дезінформація, поширена через WhatsApp, призвела до самосуду натовпу . Однак ці серйозні інциденти сталися ще до появи GenAI, який зробив створення синтетичного вмісту ще простішим і реалістичнішим.

«Якщо ви побачите багато цих відповідей Грока, ви скажете: ага, ну, більшість із них правильні, і це може бути так, але будуть деякі неправильні. І скільки? Це не мала частка. Деякі дослідження показали, що моделі штучного інтелекту піддаються 20% помилок… і коли це піде не так, це може піти не так з реальними наслідками», — сказав Холан з IFCN TechCrunch.

ШІ проти справжніх фактчекерів

Хоча компанії штучного інтелекту, включаючи xAI, вдосконалюють свої моделі штучного інтелекту, щоб вони могли спілкуватися більше як люди, вони все ще не є і не можуть замінити людей.

Протягом останніх кількох місяців технологічні компанії шукають способи зменшити залежність від людей, які перевіряють факти. Платформи, включно з X і Meta, почали використовувати нову концепцію краудсорсингової перевірки фактів через так звані «Примітки спільноти».

Природно, такі зміни також викликають занепокоєння у фактчекерів.

Сінха з Alt News оптимістично вірить, що люди навчаться розрізняти машини та людей, які перевіряють факти, і більше цінуватимуть точність людей.

«Зрештою ми побачимо, як маятник повернеться в бік перевірки фактів», — сказав Холан з IFCN.

Однак вона зазначила, що тим часом спеціалісти з перевірки фактів, швидше за все, матимуть більше роботи, оскільки інформація, згенерована ШІ, швидко поширюється.

«Багато в чому ця проблема залежить від того, чи справді вас хвилює те, що насправді правда чи ні? Ви просто шукаєте відтінок того, що звучить і виглядає правдою, але насправді не є правдою? Тому що це те, що вам допоможе ШІ», — сказала вона.

internetua.com

Exit mobile version