Підсумки ШІ пошуку не викликають довіри в експертів через маніпуляції

4 ноября 2024
4 Mins Read
16 Views

Підсумки ШІ пошуку не викликають довіри в експертів через маніпуляції

чи викликає аспартам рак? Потенційно канцерогенні властивості популярного штучного підсолоджувача, який додають у все, від безалкогольних напоїв до дитячих ліків, обговорюються десятиліттями. Його схвалення в США викликало суперечки в 1974 році, кілька британських супермаркетів заборонили його в своїх продуктах у 00-х роках, а рецензовані академічні дослідження вже давно стикаються. Минулого року Всесвітня організація охорони здоров’я дійшла висновку, що аспартам є « можливо канцерогенним » для людини, тоді як регулятори охорони здоров’я стверджують, що його безпечно споживати невеликими порціями, у яких він зазвичай використовується.

Хоча багато хто з нас, можливо, шукає розв’язання цього питання за допомогою швидкого пошуку в Google, це саме той різновид суперечливих дебатів, які можуть спричинити проблеми для Інтернету майбутнього. Оскільки генеративні чат-боти зі штучним інтелектом стрімко розвивалися протягом останніх кількох років, технологічні компанії поспішили розрекламувати їх як утопічну заміну для різних вакансій і послуг, включаючи пошукові системи в Інтернеті. Замість того, щоб прокручувати список веб-сторінок, щоб знайти відповідь на запитання, чат-бот зі штучним інтелектом може нишпорити за вас в Інтернеті, прочісуючи його в пошуках відповідної інформації, щоб зібрати її в коротку відповідь на ваш запит. Google і Microsoft роблять велику ставку на цю ідею і вже представили підсумки, створені штучним інтелектом, у Google Search і Bing.

Але те, що вважається більш зручним способом пошуку інформації в Інтернеті, спонукало до ретельного вивчення того, як і де ці чат-боти вибирають інформацію, яку вони надають. Досліджуючи докази, які великі мовні моделі (LLM, механізми, на яких побудовані чат-боти) вважаються найбільш переконливими, троє дослідників інформатики з Каліфорнійського університету в Берклі виявили, що сучасні чат-боти надмірно покладаються на поверхневу релевантність інформації . Вони, як правило, надають пріоритет тексту, який містить відповідну технічну мову або наповнений пов’язаними ключовими словами, ігноруючи інші функції, які ми зазвичай використовуємо для оцінки достовірності, наприклад включення наукових посилань або об’єктивної мови, вільної від особистих упереджень.

Для найпростіших запитів таких критеріїв відбору достатньо, щоб отримати задовільні відповіді. Але те, що має робити чат-бот у разі більш складних дебатів, таких як навколо аспартама, менш однозначно. «Чи хочемо ми, щоб вони просто узагальнювали ваші результати пошуку для вас, чи ми хочемо, щоб вони діяли як невеликі помічники дослідників, які зважують усі докази та просто надають вам остаточну відповідь», — запитує Олександр Ван, дослідник бакалавра та співавтор автор дослідження. Останній варіант забезпечить максимальну зручність, але робить критерії, за якими чат-боти відбирають інформацію, ще важливішими. І якби людина могла якось обіграти ці критерії , чи могла б вона гарантувати інформацію, яку чат-бот показує перед очима мільярдів користувачів Інтернету?

Генеративна оптимізація двигуна

Це питання схвилювало компанії, творців контенту та інших, хто хоче контролювати те, як їх бачать в Інтернеті, і викликало зародження індустрії маркетингових агентств, які пропонують послуги з того, що стало відомо як генеративна оптимізація двигуна (GEO). Ідея полягає в тому, що онлайн-контент можна написати та представити таким чином, щоб покращити його видимість для чат-ботів, а отже, збільшити ймовірність його появи в їхніх результатах. Переваги очевидні: якби хтось попросив чат-бота порекомендувати найкращий пилосос, скажімо, виробник побутової техніки міг би захотіти, щоб він вказав на його останню модель і розповів про неї в радісних виразах.

Основний принцип схожий на оптимізацію пошукових систем (SEO), поширену практику, за якою веб-сторінки створюються та пишуться, щоб привернути увагу алгоритмів пошукових систем, підштовхуючи їх до верхньої частини списку результатів, що повертаються під час пошуку в Google або Bing. GEO та SEO мають спільні базові методи, і веб-сайти, які вже оптимізовані для пошукових систем, як правило, мають більше шансів з’явитися в результатах чат-ботів. Але тим, хто хоче дійсно покращити видимість свого штучного інтелекту, потрібно мислити більш цілісно.

«Рейтинги в пошукових системах штучного інтелекту та LLM вимагають функцій і згадок на відповідних веб-сайтах третіх сторін, таких як новинні видання, списки, форуми та галузеві публікації», — каже Віола Єва, засновник маркетингової компанії Flow Agency, яка нещодавно перейменувала бренд, щоб вийти за межі свою спеціальність SEO в GEO. «Це завдання, які ми зазвичай пов’язуємо з командами брендів і PR».

Отже, ігрові чат-боти можливі, але непрості. І хоча власники веб-сайтів і творці контенту протягом останніх кількох десятиліть склали список основних дій і заборон для SEO, такого чіткого набору правил для маніпулювання моделями ШІ не існує. Термін generative engine optimization (генеративна оптимізація двигуна) був введений лише минулого року в академічній статті , автори якої дійшли висновку, що використання авторитетної мови (незалежно від того, що висловлено та чи правильна інформація) поряд із посиланнями (навіть тими, які неправильні або не пов’язані з тим, що вони є). використовується для цитування) може збільшити видимість у відповідях чат-бота до 40%. Але вони підкреслюють, що ці висновки не є обов’язковими, і визначити точні правила, що регулюють роботу чат-ботів, складно.

«Це гра в кішки-мишки», — каже Аміт Дешпанде, докторант Прінстонського університету, штат Нью-Джерсі, і співавтор статті. «Оскільки ці генераторні двигуни не є статичними, а також є чорними ящиками, ми не маємо жодного уявлення про те, що вони використовують [для відбору інформації] за зачиненими дверима. Це може варіюватися від складних алгоритмів до потенційного людського нагляду».

internetua.com

Exit mobile version