Очікується, що Британія зіткнеться з шквалом підтримуваних державою кібератак і кампаній дезінформації, коли вона прямує до виборів у 2024 році, і штучний інтелект є ключовим ризиком, за словами кіберекспертів, які говорили з CNBC.
Британці проголосують 2 травня на місцевих виборах, а загальні вибори очікуються в другій половині цього року, хоча британський прем’єр-міністр Ріші Сунак ще не прийняв дату.
Голосування відбувається в той час, коли країна стикається з рядом проблем, включаючи кризу вартості життя та гострі розбіжності щодо імміграції та притулку .
«Оскільки більшість громадян Великої Британії голосують на виборчих дільницях у день виборів, я очікую, що більшість ризиків для кібербезпеки з’являться протягом місяців до самого дня», — сказав CNBC по електронній пошті Тодд МакКіннон, генеральний директор фірми безпеки ідентифікації Okta. .
Це було б не вперше.
У 2016 році вибори президента США та голосування щодо Brexit у Великій Британії були зірвані через дезінформацію, поширену в соціальних мережах, нібито афілійованими з російською державою групами, хоча Москва заперечує ці заяви.
За словами кіберекспертів , з того часу державні суб’єкти здійснювали регулярні атаки в різних країнах, щоб маніпулювати результатами виборів.
Тим часом, минулого тижня Великобританія стверджувала, що китайська державна хакерська група APT 31 намагалася отримати доступ до облікових записів електронної пошти британських законодавців , але заявила, що ці спроби були невдалими. Лондон наклав санкції на китайських громадян і технологічну фірму в Ухані, які, як вважають, були прикриттям для APT 31.
США, Австралія та Нова Зеландія ввели власні санкції. Китай спростував звинувачення в державних хакерських атаках, назвавши їх «безпідставними».
Кіберзлочинці використовують ШІ
Експерти з кібербезпеки очікують, що зловмисники втручатимуться в майбутні вибори кількома способами — не в останню чергу через дезінформацію, яка цього року, як очікується, буде ще гіршою через широке використання штучного інтелекту.
Експерти кажуть, що синтетичні зображення, відео та аудіо, створені за допомогою комп’ютерної графіки, методів моделювання та штучного інтелекту, які зазвичай називають «глибокими фейками», стануть поширеним явищем, оскільки людям стане легше їх створювати.
«Державні суб’єкти та кіберзлочинці, ймовірно, використовуватимуть атаки на основі ідентифікації на базі штучного інтелекту, такі як фішинг, соціальна інженерія, програми-вимагачі та компрометація ланцюжків поставок, щоб націлитися на політиків, персонал кампанії та пов’язані з виборами інституції», – додав Маккіннон з Okta.
«Ми також впевнені, що побачимо наплив ШІ та бот-керованого контенту, створеного загрозливими суб’єктами, щоб виштовхувати дезінформацію в ще більшому масштабі, ніж ми бачили в попередні цикли виборів».
Співтовариство кібербезпеки закликає до підвищеної обізнаності про цей тип дезінформації, створеної штучним інтелектом, а також до міжнародної співпраці для зменшення ризику такої зловмисної діяльності.
Головний ризик виборів
Адам Мейерс, керівник відділу протидії противникам у фірмі з кібербезпеки CrowdStrike, сказав, що дезінформація за допомогою штучного інтелекту є головним ризиком для виборів у 2024 році.
«Зараз генеративний штучний інтелект можна використовувати як для шкоди, так і для користі, тому ми бачимо, що обидва додатки з кожним днем все частіше застосовуються», — сказав Мейерс CNBC.
Відповідно до останнього щорічного звіту Crowdstrike про загрози, Китай, Росія та Іран, швидше за все, будуть проводити операції з дезінформації проти різних глобальних виборів за допомогою таких інструментів, як генеративний штучний інтелект.
«Цей демократичний процес надзвичайно крихкий», — сказав Мейерс CNBC. «Коли ви починаєте дивитися на те, як ворожі національні держави, такі як Росія, Китай чи Іран, можуть використовувати генеративний штучний інтелект і деякі з новітніх технологій для створення повідомлень і використання глибоких фейків для створення історії чи оповіді, яка буде переконливою для людей, особливо коли люди вже мають таке упередження підтвердження, це надзвичайно небезпечно».
Ключова проблема полягає в тому, що штучний інтелект зменшує бар’єр для проникнення злочинців, які хочуть використовувати людей в Інтернеті. Це вже траплялося у вигляді шахрайських електронних листів, які були створені за допомогою легкодоступних інструментів штучного інтелекту, таких як ChatGPT.
За словами Дена Холмса, фахівця із запобігання шахрайству в регуляторній технологічній фірмі Feedzai, хакери також розробляють більш просунуті — персональні — атаки, навчаючи моделі ШІ на наших власних даних, доступних у соціальних мережах.
«Ви можете дуже легко навчити ці моделі голосового штучного інтелекту… за допомогою соціальних [мереж]», — сказав Холмс в інтерв’ю CNBC. «Йдеться [про] отримати такий емоційний рівень залученості та справді придумати щось креативне».
У контексті виборів у жовтні 2023 року на соціальній медіа-платформі X було опубліковано підроблений аудіозапис Кейра Стармера, лідера опозиційної Лейбористської партії, який ображає партійних співробітників, створений штучним інтелектом. Публікація набрала 1,5 мільйона переглядів, відповідно до виправлення факту благодійність Full Fact.
Це лише один із прикладів багатьох глибоких фейків, через які експерти з кібербезпеки хвилюються щодо того, що станеться, коли у Великій Британії наближаються вибори цього року.
Вибори – випробування для технологічних гігантів
Місцеві вибори стануть ключовим випробуванням для цифрових гігантів, таких як власник Facebook Meta, Googleі TikTok, щоб захистити їхні платформи від дезінформації.
Meta вже вжила заходів, щоб додати «водяний знак» до створеного штучним інтелектом контенту, щоб користувачі знали, що він несправжній.
Однак технологія Deepfake стає набагато прогресивнішою. І для багатьох технологічних компаній боротьба за перемогу зводиться до боротьби з вогнем вогнем.
«Deepfakes пройшов шлях від теоретичної речі до того, що сьогодні активно реалізується», — сказав Майк Тучен, генеральний директор Onfido, в інтерв’ю CNBC минулого року.
«Тепер існує гра в кішки-мишки, де «ШІ проти ШІ» — використання штучного інтелекту для виявлення дипфейків і пом’якшення впливу на наших клієнтів зараз є великою битвою».
Кіберексперти кажуть, що стає все важче визначити, що є справжнім, але можуть бути деякі ознаки того, що контент маніпулюється цифровими засобами.
AI використовує підказки для створення тексту, зображень і відео, але він не завжди робить це правильно. Так, наприклад, якщо ви дивитеся згенероване ШІ відео обіду, і ложка раптово зникає, це приклад недоліку ШІ.
«Ми, звичайно, побачимо більше глибоких фейків протягом виборчого процесу, але простий крок, який ми всі можемо зробити, — це перевірити справжність чогось, перш ніж поширювати це», — додав Маккіннон з Okta.
No Comment! Be the first one.