З’ясувалося, що цього року Meta втрутилася, щоб припинити близько 20 прихованих операцій впливу по всьому світу, хоча технічна фірма заявила, що побоювання щодо фальшивих виборів, що підживлюються штучним інтелектом, не виправдалися у 2024 році.
Нік Клегг, президент із глобальних зв’язків компанії, яка керує Facebook, Instagram і WhatsApp, сказав, що Росія все ще є джерелом № 1 агресивної онлайн-активності, але сказав під час брифінгу, що «вражає», як мало штучного інтелекту використовується для спроб обдурити виборців під час найактивніших виборів у всьому світі.
Колишній віце-прем’єр-міністр Великої Британії розповів, що Meta, яка має понад 3 мільярди користувачів, повинна була заблокувати трохи понад 500 000 запитів на створення зображень за допомогою власних інструментів штучного інтелекту Дональда Трампа та Камали Гарріс, Джей Ді Венса та Джо Байдена протягом місяця, що випереджає. до дня виборів у США.
Але експертам із безпеки фірми довелося взятися за нову операцію з використанням підроблених облікових записів, щоб маніпулювати публічними дебатами заради досягнення стратегічної мети частіше, ніж один раз на три тижні. Інциденти «скоординованої неавтентичної поведінки» включали російську мережу, яка використовувала десятки облікових записів у Facebook і фіктивні веб-сайти новин для нападу на людей у Грузії, Вірменії та Азербайджані.
Іншою була російська операція, яка залучала штучний інтелект для створення фейкових новинних веб-сайтів із використанням таких брендів, як Fox News і Telegraph, щоб спробувати послабити підтримку України Заходом, а також використовувала франкомовні фейкові новинні сайти для просування ролі Росії в Африці та критики ролі Росії в Африці. Франція.
«Росія залишається джерелом номер 1 для таємних операцій впливу, які ми зламали сьогодні – з 39 мережами, які були зламані в цілому з 2017 року», – сказав він. Наступними за частотою джерелами іноземного втручання, які виявила Meta, є Іран і Китай.
Даючи оцінку ефекту підробок штучного інтелекту після хвилі опитувань у 50 країнах, включаючи США, Індію, Тайвань, Францію, Німеччину та Великобританію, він сказав: «Були всі види попереджень щодо потенційних ризиків таких речей, як широко розповсюджені кампанії дезінформації з підтримкою deepfakes і AI. Це не те, що ми бачили з того, що ми відстежували в наших службах. Схоже, що ці ризики не матеріалізувалися значним чином, і будь-який такий вплив був скромним і обмеженим за масштабом».
Але Клегг застеріг від самовдоволення та сказав, що відносно низький вплив фальсифікації за допомогою генеративного штучного інтелекту для маніпулювання відео, голосами та фотографіями «дуже, дуже ймовірно зміниться».
«Очевидно, що ці інструменти ставатимуть все більш поширеними, і ми побачимо все більше синтетичного та гібридного контенту в Інтернеті», – сказав він.
Оцінка Meta слідує за висновками минулого місяця Центру нових технологій і безпеки про те, що «оманливий контент, створений штучним інтелектом, дійсно сформував передвиборчий дискурс у США, посиливши інші форми дезінформації та розпаливши політичні дебати». У ньому сказано, що бракує доказів щодо його впливу на перемогу Дональда Трампа на виборах.
Було зроблено висновок, що загрози з підтримкою штучного інтелекту справді почали завдавати шкоди демократичним системам у 2024 році, і попереджено, що «самовдоволення не повинно проникнути» перед виборами 2025 року в Австралії та Канаді.
Сем Стоквелл, науковий співробітник Інституту Алана Тюрінга, сказав, що інструменти штучного інтелекту, можливо, сформували передвиборчі дискурси та посилили шкідливі наративи непомітними способами, особливо під час останніх виборів у США.
«Це включало оманливі заяви про те, що мітинг Камали Харріс був створений штучним інтелектом, і безпідставні чутки про те, що гаїтянські іммігранти їдять домашніх тварин, стали вірусними за допомогою ксенофобських мемів, створених штучним інтелектом», — сказав він.