- Усі великі компанії отримали оцінки D і нижче за планування екзистенціальної безпеки.
- OpenAI та DeepMind показали найгірші результати за методами управління ризиками.
- Експерти порівняли ситуацію із запуском АЕС без плану запобігання катастрофі.
Найбільші розробники штучного інтелекту не мають чітких стратегій для забезпечення безпеки систем з інтелектом на рівні людини. Такі дані містяться у доповіді Інституту майбутнього життя (FLI), яка була оприлюднена щодо готовності індустрії до появи штучного надрозуму (AGI).
Про це розповідає UBB
Організація протестувала сім провідних розробників великих мовних моделей (LLM), і жоден з них не отримав оцінку вище D за планування екзистенціальної безпеки.

Серед учасників тестування були OpenAI, Google DeepMind, Anthropic, Meta, xAI, а також китайські Zhipu AI і DeepSeek. Індекс охоплює шість напрямків, включаючи поточні загрози та готовність до потенційних катастрофічних наслідків, пов’язаних із втратою контролю над ШІ.
Найвищий загальний бал — C — отримав стартап Anthropic. За ним ідуть OpenAI з C і Google DeepMind з оцінкою C-. Інші компанії показали ще гірші результати. Один з рецензентів зазначив, що жодна з організацій не має «нічого схожого на послідовний, реалізований план» контролю над ШІ.
Макс Тегмарк, співзасновник FLI та професор MIT, підкреслив, що провідні компанії створюють системи, які можуть бути порівняні за небезпекою з ядерними об’єктами. Водночас вони не публікують навіть базових планів щодо запобігання катастрофам. Темпи розвитку ШІ, за його словами, перевищують колишні очікування, і тепер компанії говорять про горизонт у кілька років.
У доповіді також зазначається, що з моменту лютневого саміту з ШІ прогрес в галузі прискорився. Моделі Grok 4, Gemini 2.5 та відеогенератор Veo3 уже демонструють значні покращення своїх можливостей.
Окрім звіту FLI, подібний звіт також підготувала організація SaferAI, яка дійшла схожих висновків щодо «неприйнятно слабкого» управління ризиками в індустрії. Експерти закликають терміново переглянути підходи до розробки AGI.
Представник Google DeepMind зазначив, що звіт FLI не відображає всіх їхніх заходів безпеки. Інші компанії на момент публікації не надали коментарів.
Нагадаємо, раніше було повідомлено, що корпорація Meta переманила вчених OpenAI для роботи над суперінтелектом.