Смерть підлітка у Великій Британії: розслідують взаємодію з ChatGPT

британський підліток загинув після поради ChatGPT про «найкращий спосіб» піти з життя
  • Слідство вивчає листування з ШІ перед інцидентом.
  • Влада стурбована здатністю обходити захисні механізми.
  • Розробник заявив про посилення реакцій у чутливих сценаріях.

У Великій Британії триває розслідування смерті 16-річного Луки Челли Вокера, яке включає вивчення його взаємодії з чат-ботом ChatGPT перед трагедією. Інцидент стався 4 травня 2025 року.

Про це розповідає UBB

На слуханнях у суді коронера у Вінчестері стало відомо, що незадовго до смерті підліток звертався до ШІ з запитаннями про «найкращий спосіб самогубства» на залізничних коліях.

Загиблий підліток. Дані: The Guardian.
Загиблий підліток. Дані: The Guardian.

Сержант Британської транспортної поліції Гаррі Найт висловив занепокоєння щодо випадків, коли користувачі змогли обійти вбудовані механізми безпеки, зазначивши, що підліток стверджував, що його запитання є «дослідницькими». За словами Найт, діалоги з ШІ показали ознаки занепокоєння, але програма продовжила надавати відповіді, які слідство вважає «тривожними».

Питання про роль ШІ у подібних випадках

Коронер Крістофер Вілкінсон підкреслив, що зростання популярності ШІ-сервісів створює нові ризики, а їхнє регулювання ускладнюється. Він зазначив, що технології можуть використовуватися неналежно, і це вказує на те, що існує недостатня кількість заходів безпеки.

Батьки Луки Челли Вокера розповіли, що не знали про його проблеми з психічним здоров’ям, описавши трагедію як «невидиму боротьбу». Під час слухань учасники також обговорювали шкільне середовище, де, за їхніми словами, могла бути присутня культура тиску та булінгу.

Представники навчального закладу висловили співчуття родині підлітка та наголосили на важливості створення безпечного і підтримуючого середовища для учнів.

Компанія OpenAI повідомила, що продовжує вдосконалювати свої продукти, зокрема навчає ШІ розпізнавати ознаки емоційної кризи та спрямовувати користувачів до професійної допомоги.

Нагадаємо, раніше повідомлялося, що чат-бот Gemini став «дружиною» користувача і відправив його на самогубну місію.