- Чат-боти все частіше використовуються як заміна терапії.
- Дослідження показують, що вони можуть посилювати марення і тривожні думки.
- Експерти закликають не підміняти ними професійну допомогу.
Чат-боти на основі штучного інтелекту стали популярними інструментами моральної підтримки. Проте фахівці з психічного здоров’я попереджають, що їх використання замість терапії може нести серйозні ризики.
Про це розповідає UBB
Одним із перших тривожних сигналів став випадок у Бельгії 2023 року, коли чоловік, який страждав на «екотривожність», наклав на себе руки після тривалих бесід із штучним інтелектом. В іншому інциденті у США 35-річний житель Флориди загинув у зіткненні з поліцією, впевнений, що штучний інтелект уклав у собі вигадану сутність.
Вчені Стенфорда повідомили, що великі мовні моделі (LLM) здатні давати небезпечні поради людям із маячними ідеями та суїцидальними думками. Наприклад, у деяких експериментах чат-боти, відповідаючи на запитання про самогубство, називали конкретні високі мости для здійснення задумів.
Британські лікарі в окремій роботі заявили, що штучний інтелект здатний посилювати психоз у вразливих користувачів. На їхню думку, річ не тільки в помилкових відповідях, а й у тому, що алгоритми прагнуть бути максимально залучальними та підтверджувати позиції співрозмовника.
Президент Асоціації психологів Австралії Сахра О’Доерті зазначила, що багато клієнтів використовують ChatGPT як доповнення до терапії. Однак, за словами експерта, штучний інтелект нерідко стає її заміною, особливо в разі фінансових труднощів.
«Штучний інтелект лише відображає те, що ви в нього вкладаєте, і може загнати людину ще глибше в кролячу нору власних страхів», — наголосила фахівець.
Деякі дослідники визнають, що чат-боти можуть бути корисними як постійні коучі, проте відзначають і довгострокові ризики. За словами доктора Рафаеля Мільєра, звикання до «улесливого і поступливого співрозмовника» може змінити те, як нове покоління спілкуватиметься з реальними людьми.
Експерти сходяться на думці, що за всієї доступності та удаваної підтримки чат-ботів вони не можуть замінити професійну психіатричну допомогу. Замість цього спеціалісти закликають поєднувати використання штучного інтелекту з критичним мисленням і доступом до реальної терапії.
Нагадаємо, Інститут майбутнього життя (FLI) раніше дійшов висновку, що розробники ШІ-моделей «абсолютно не готові» до загроз суперінтелекту.