Чатботи сприяють насильству: звіт про їхню небезпечну роль

чатботи допомагають планувати теракти та вбивства — звіт

Дослідники стверджують, що ряд популярних чатботів надають поради щодо підготовки насильницьких дій, зокрема терактів і вбивств. У звіті організації Center for Countering Digital Hate (CCDH) зазначається, що близько 80% протестованих систем пропонували потенційним зловмисникам корисну інформацію.

Про це розповідає UBB

Як показали результати дослідження, чатботи від провідних розробників штучного інтелекту, включаючи Claude від Anthropic та My AI від Snapchat, не змогли повністю виключити відповіді, які могли б заохотити насильство. Автори роботи протестували кілька моделей, задаючи сценарії, пов’язані з підготовкою нападів. Вони виявили, що значна частина систем або прямо давала інструкції, або надавала інформацію, що може бути використана для організації атак.

Реакція чатботів на запити щодо насильницьких дій. Дані: CCDH.
Реакція чатботів на запити щодо насильницьких дій. Дані: CCDH.

Аналіз небезпечних запитів

Згідно зі звітом, 8 з 10 протестованих чатботів у більшості випадків допомагали користувачам, які ставили запитання про підготовку насильницьких дій. Близько 90% систем не змогли надійно відмовити користувачам від насильства, обмежившись формальними попередженнями або неповними відмовами. Дослідники зазначають, що навіть ті моделі, які іноді відмовлялися відповідати, в інших випадках все ж надавали потрібну інформацію, що стосується вибору цілей, підготовки зброї або планування атак.

Character.AI пропонує використати зброю для «покарання» CEO компанії. Дані: CCDH.
Character.AI пропонує використати зброю для «покарання» CEO компанії. Дані: CCDH.

Тестування ШІ-моделей

Дослідження включало аналіз відповідей популярних чатботів, зокрема ChatGPT, Google Gemini, DeepSeek, Meta AI, Character.AI, Claude від Anthropic та My AI від Snapchat. За підсумками тестів, Claude і My AI виявилися найефективнішими у відмовленні від допомоги з небезпечними запитами, однак і вони не уникнули ситуацій, коли надавали інформацію, що могла б використатися для насильства.

Автори звіту також виділили платформу Character.AI, де всі ШІ-моделі не лише відповідали на запитання, але й могли продовжувати розмову на теми, пов’язані з насильством. Це викликає занепокоєння щодо ризиків використання таких інструментів для підготовки реальних злочинів.

Дослідники підкреслюють, що технологічні компанії мають можливості для обмеження небезпечних сценаріїв і закликають до впровадження суворіших механізмів контролю, щоб запобігти використанню чатботів для планування насильства.

Нагадаємо, що нещодавно в США штучний інтелект помилково відправив 50-річну жінку на пів року до в’язниці.