Безпекою штучного інтелекту складно керувати — експерт

12 декабря 2024
2 Mins Read
7 Views

Елізабет Келлі, директор Інституту безпеки штучного інтелекту США, заявила, що розробники штучного інтелекту самі намагаються запобігти зловживанню новими системами, не пропонуючи легкого рішення для державних органів.

За словами Келлі, виступаючи на конференції Reuters NEXT у Нью-Йорку, кібербезпека викликає занепокоєння. За її словами, способи обійти огорожі, створені лабораторіями штучного інтелекту для безпеки та інших тем, які називаються «втечею з в’язниці», можуть бути простими.

«Для політиків важко сказати, що це найкращі практики, які ми рекомендуємо з погляду гарантій, коли ми насправді не знаємо, які з них працюють, а які ні», — сказав Келлі. Технологічні експерти обговорюють, як перевірити та захистити ШІ в різних вимірах. Інша сфера стосується синтетичного вмісту. За її словами, підробка цифрових водяних знаків, які позначаються споживачами, коли зображення створюються за допомогою штучного інтелекту, залишається надто легкою для влади, щоб розробити вказівки для галузі. За словами Келлі, Інститут безпеки штучного інтелекту США, створений за адміністрації Байдена, розв’язує такі проблеми за допомогою академічних, галузевих партнерств і партнерств з громадянським суспільством, які інформують про його технічні оцінки. Вона сказала, що безпека штучного інтелекту є «суттєво двопартійною проблемою», коли її запитали, що станеться з тілом після того, як Дональд Трамп вступить на посаду в січні. Перший директор інституту Келлі нещодавно очолив інавгураційну зустріч інститутів безпеки ШІ з усього світу, яка відбулася минулого місяця в Сан-Франциско. Відповідаючи на запитання про результати цих зустрічей, Келлі сказав, що 10 країн-членів працювали над сумісними тестами безпеки за допомогою більшої кількості технічних експертів у толстовках, ніж на звичайній дипломатичній зустрічі. «Це дуже сильно залучило ботанів у кімнату», — сказала вона.

internetua.com

Exit mobile version