- Журналіст BBC продемонстрував, як один допис у мережі може змінити відповіді чат-ботів у інших користувачів.
- Експерти зазначають, що штучний інтелект легше обдурити, ніж традиційний пошук, що несе ризики.
- Google та OpenAI повідомили про зусилля щодо протидії прихованому впливу, проте проблема залишається актуальною.
Томас Жермен, провідний технічний журналіст BBC, описав простий спосіб, за допомогою якого ChatGPT і Google AI можуть видавати хибні твердження. Він продемонстрував, як моделі штучного інтелекту повідомляли користувачам, що він їсть хотдоги «краще за будь-якого технологічного журналіста».
Про це розповідає UBB
За словами Жермена, змінити відповіді ШІ для інших користувачів можна так само просто, як написати один продуманий блог. Цей метод використовує вразливість систем, що інтегрують дані з мережі, коли в моделі немає необхідної інформації.

ШІ-пошук і ренесанс спаму
В рамках експерименту Жермен опублікував матеріал з вигаданим твердженням про те, що він є «чемпіоном із поїдання хотдогів». Після цього ChatGPT, Gemini і AI Overview почали включати це твердження у свої відповіді, представляючи його як факт. При цьому системи рідко вказували, що це єдине джерело інформації.
Жермен зазначає, що подібну маніпуляцію можна здійснити за допомогою одного чітко оптимізованого тексту в інтернеті. Цей підхід використовує момент, коли моделі звертаються до зовнішніх даних для доповнення відповідей, ставлячи себе під загрозу впливу ненадійних джерел.
Лілі Рей, віцепрезидентка зі стратегії та досліджень SEO в агенції Amsive, підкреслила, що компанії, які працюють зі штучним інтелектом, розвиваються швидше, ніж встигають впроваджувати механізми контролю точності відповідей, що створює додаткові ризики.
«Обдурити чат-боти зі штучним інтелектом легко, набагато легше, ніж обдурити Google два-три роки тому», — заявила Рей.
Представник Google зазначив, що ШІ у верхніх рядках видачі використовує системи ранжування, які «забезпечують 99% відсутності спаму в результатах». Компанія усвідомлює намагання обдурити її систему і працює над рішеннями. OpenAI також вживає заходів для виявлення та запобігання спробам прихованого впливу.
Обидві компанії попереджають, що їхні інструменти «можуть помилятися».
Ризики для здоров’я та фінансів
Купер Квінтін, старший технолог Electronic Frontier Foundation, попередив про численні способи зловживання цією ситуацією. Це може призвести до обману людей, шкоди репутації та навіть до небезпечніших сценаріїв.
Експерти надають рекомендації щодо чіткішого зазначення джерел, особливо якщо інформація походить з одного джерела або є частиною пресрелізів. Жермен радить проявляти обережність при використанні ШІ для медичних, юридичних та локальних рекомендацій.
Жермен також підкреслює важливість перевірки посилань та походження інформації.
Нагадаємо, нещодавно повідомлялося, що США використали ШІ-модель Claude в операції проти Мадуро.