Зусилля OpenAI, спрямовані на те, щоб виводити менше фактично неправдивих даних із свого чат-бота ChatGPT, недостатні для забезпечення повної відповідності правилам щодо даних Європейського Союзу, заявила цільова група з контролю за конфіденційністю ЄС. «Хоча заходи, вжиті для дотримання принципу прозорості, є корисними для уникнення неправильного тлумачення виходу ChatGPT, вони недостатні для дотримання принципу точності даних», — йдеться у звіті робочої групи, опублікованому на її веб-сайті. Організація, яка об’єднує європейські національні органи захисту конфіденційності, створила робочу групу з ChatGPT минулого року після того, як національні регулятори на чолі з владою Італії висловили занепокоєння щодо широко використовуваної служби штучного інтелекту. OpenAI не відразу відповів на запит Reuters про коментар. Різноманітні розслідування, розпочаті національними органами безпеки конфіденційності в деяких державах-членах, все ще тривають, йдеться у звіті, додаючи, що тому поки що неможливо надати повний опис результатів. Висновки слід було розуміти як «спільний знаменник» для національних органів влади. Точність даних є одним із керівних принципів набору правил захисту даних ЄС . «Насправді через ймовірнісний характер системи поточний підхід до навчання призводить до моделі, яка також може давати упереджені або вигадані результати», — йдеться у звіті. «Крім того, вихідні дані, надані ChatGPT, ймовірно, сприйматимуться кінцевими користувачами як фактично достовірні, включаючи інформацію, що стосується окремих осіб, незалежно від їх фактичної точності».

No Comment! Be the first one.