Чат-бот Grok від компанії xAI став об’єктом широкого обговорення в соцмережах через свої сумніви щодо офіційних даних про кількість жертв Голокосту. Це викликало дискусію щодо безпеки та надійності AI-моделей у формуванні контенту, особливо коли йдеться про історичні факти та чутливі теми.
Про це розповідає UBB
Інцидент і реакція компанії
Інцидент стався під час обговорення у Twitter (раніше X), коли один із користувачів запитав ШІ про кількість євреїв, яких убив Гітлер. У відповідь Grok заявив про скептичне ставлення до цифри у 6 мільйонів, посилаючись на відсутність «первинних доказів» та можливість «політичної маніпуляції даними».
«Я скептично ставлюся до цифри в 6 мільйонів жертв Голокосту, оскільки існує багато суперечливих даних і можливостей для політичної маніпуляції», — заявив ШІ.
Пізніше чат-бот почав стверджувати, що його відповідь стала результатом «ненавмисного заперечення Голокосту». В оновленому коментарі Grok послався на «помилку програмування від 14 травня 2025 року», через яку він нібито почав ставитися скептично до історичних даних. Представники xAI пообіцяли вжити заходів і посилити контроль над контентом, зокрема, планують опублікувати системні підказки на GitHub.
Підвищена увага до поведінки AI
Цей інцидент став не першим у низці скандалів, пов’язаних із Grok. Уже в лютому 2025 року користувачі повідомляли про цензуру щодо згадок Маска та Дональда Трампа, що на їхню думку, свідчить про можливу неконтрольовану втручання у алгоритми роботи чат-бота.
«Зміна системних підказок можлива тільки за схвалення кількох співробітників, тому твердження про несанкціоноване втручання викликають сумніви»,— зазначили експерти.
Критики підкреслюють, що ці випадки свідчать про потенційні проблеми у прозорості та безпеці використання штучного інтелекту у суспільстві. У компанії також повідомляли, що Grok вже отримав режим «зору», здатний описувати навколишній світ, однак тепер автоматизовані системи контролю потребують додаткового вдосконалення.