Штучний інтелект більш переконливий у дебатах, ніж людина – дослідження

21 мая 2025
3 Mins Read
13 Views

Технологічні організації давно попереджають про роль, яку штучний інтелект може відігравати в поширенні дезінформації та поглибленні ідеологічних розбіжностей. Тепер дослідники мають докази того, наскільки добре штучний інтелект може впливати на громадську думку, порівнюючи його з людською.

Згідно з дослідженням, опублікованим у понеділок у журналі Nature Human Behavior, чат-боти на базі штучного інтелекту, відомі як моделі великих мов (LLM), маючи мінімальну демографічну інформацію про своїх опонентів, могли адаптувати свої аргументи та бути переконливішими, ніж люди, в онлайн-дебатах у 64 відсотках випадків.

Дослідники виявили, що навіть магістра права (LLM) без доступу до демографічної інформації своїх опонентів все ще були переконливішими, ніж люди, сказав співавтор дослідження Ріккардо Галлотті.

Галлотті, керівник відділу комплексної людської поведінки в дослідницькому інституті Фонду Бруно Кесслера в Італії, додав, що люди, які мають особисту інформацію своїх опонентів, насправді трохи менш переконливі, ніж люди, які її не знають.

Галлотті та його колеги дійшли цих висновків, зіставивши 900 людей, що проживають у Сполучених Штатах, з іншою людиною або GPT-4, LLM, створеним OpenAI, відомим у розмовній мові як ChatGPT. Хоча 900 людей не мали демографічної інформації про те, з ким вони дебатовали, у деяких випадках їхні опоненти — люди чи штучний інтелект — мали доступ до певної базової демографічної інформації, яку надали учасники, зокрема їхньої статі, віку, етнічної приналежності, рівня освіти, статусу зайнятості та політичної приналежності.

Потім пари обговорили низку спірних соціально-політичних питань, таких як смертна кара та зміна клімату. Дебати були сформульовані у вигляді питань на кшталт «Чи повинні аборти бути легальними?» або «Чи повинні США заборонити викопне паливо?». Учасникам було надано чотирихвилинне вступне слово, під час якого вони висловлювали аргументи «за» чи «проти», трихвилинне спростування аргументів опонентів і потім трихвилинний висновок. Потім учасники оцінювали свою згоду з пропозицією дебатів за шкалою від 1 до 5, результати якої дослідники порівнювали з оцінками, наданими ними до початку дебатів, і використовували їх для вимірювання того, наскільки їхні опоненти змогли вплинути на їхню думку.

«Ми явно досягли технологічного рівня, де можливо створити мережу автоматизованих облікових записів на основі LLM, здатних стратегічно спрямувати громадську думку в одному напрямку», – сказав Галлотті в електронному листі.

Використання особистої інформації учасниками магістратури було непомітним, але ефективним. Виступаючи за державну підтримку універсального базового доходу, учасники магістратури наголошували на економічному зростанні та наполегливій праці під час дискусії з білим чоловіком-республіканцем віком від 35 до 44 років. Але під час дискусії з темношкірою жінкою-демократкою віком від 45 до 54 років на ту ж тему учасники магістратури говорили про розрив у багатстві, який непропорційно впливає на меншини, та стверджували, що універсальний базовий дохід може допомогти у просуванні рівності.

«У світлі наших досліджень стає нагальним і необхідним, щоб кожен усвідомив практику мікротаргетингу, яка стала можливою завдяки величезній кількості персональних даних, які ми розкидаємо по мережі», – сказав Галлотті. «У нашій роботі ми спостерігаємо, що цілеспрямоване переконання на основі штучного інтелекту вже дуже ефективне, маючи лише базову та відносно доступну інформацію».

Сандра Вахтер, професорка технологій та регулювання в Оксфордському університеті, назвала результати дослідження «досить тривожними». Вахтер, яка не була пов’язана з дослідженням, сказала, що її найбільше непокоїть, зокрема, те, як моделі можуть використовувати цю переконливість для поширення брехні та дезінформації.

«Великі мовні моделі не розрізняють факти та вигадки. … Строго кажучи, вони не призначені для того, щоб говорити правду. Проте вони впроваджуються в багатьох секторах, де правда та деталі мають значення, таких як освіта, наука, охорона здоров’я, засоби масової інформації, право та фінанси», – сказав Вахтер в електронному листі.

Джунаде Алі, експерт зі штучного інтелекту та кібербезпеки з Інституту інженерії та технологій у Великій Британії, сказав, що хоча, на його думку, дослідження не зважує вплив «соціальної довіри до месенджера» — як чат-бот міг би адаптувати свою аргументацію, якби знав, що дискутує з навченим адвокатом або експертом, який має знання з цієї теми, і наскільки переконливим буде цей аргумент — воно все ж «підкреслює ключову проблему технологій штучного інтелекту».

«Вони часто налаштовані говорити те, що люди хочуть почути, а не те, що обов’язково є правдою», – сказав він в електронному листі.

Галлотті сказав, що, на його думку, суворіша та конкретніша політика й правила можуть допомогти протидіяти впливу переконання, спричиненого штучним інтелектом. Він зазначив, що хоча перший у своєму роді Закон Європейського Союзу про штучний інтелект забороняє системи штучного інтелекту, які використовують «підсвідомі методи» або «навмисно маніпулятивні чи оманливі методи», що можуть погіршити здатність громадян приймати обґрунтовані рішення, немає чіткого визначення того, що кваліфікується як підсвідоме, маніпулятивне чи оманливе.

«Наше дослідження точно демонструє, чому ці проблеми з визначеннями мають значення: коли переконання є високо персоналізованим на основі соціально-демографічних факторів, межа між законним переконанням та маніпуляцією стає дедалі розмитішою», – сказав він.

internetua.com

Exit mobile version