Штучний інтелект: побоювання про масові звільнення виявились перебільшеними

побоювання про масові звільнення через ШІ перебільшені

Ризики звільнень через ШІ завищені

Радник Білого дому з криптовалют і штучного інтелекту Девід Сакс стверджує, що прогнози масових звільнень через штучний інтелект (ШІ) є перебільшеними. Він зазначив, що сучасні технології потребують людського контролю для створення справжньої цінності в бізнесі.

Про це розповідає UBB

Сакс також підкреслив, що навіть найсучасніші моделі ШІ потребують перевірки та участі фахівців, оскільки вони виконують роль «середньої ланки» в робочих процесах, а ключові рішення залишаються за людьми.

Ситуація на ринку праці та вплив на криптоіндустрію

Ця заява прозвучала після публікації дослідження Microsoft Research, в якому вказано професії, найбільш піддані впливу ШІ. У списку згадуються журналісти, аналітики та технічні письменники, які активно працюють у криптовалютній сфері.

Дослідження проаналізувало 200 000 анонімних чатів Bing Copilot і виявило, що ШІ найчастіше використовується для збору даних, написання текстів і консультування. Найбільших ризиків автоматизації зазнають професії у репортерстві та копірайтингу, з показниками застосовності ШІ 0,38-0,39, тоді як аналітики ринку та фахівці з даних оцінені в межах 0,35-0,36.

Проблема скорочення вакансій також актуальна для криптоіндустрії. У липні 2025 року кількість вакансій у цій галузі помітно зменшилась, що збіглося з звітом Міністерства праці США, згідно з яким у країні створено лише 73 000 робочих місць, тоді як очікувалося 100 тисяч за прогнозом Dow Jones.

Сакс також послався на думку колишнього технічного директора Coinbase Баладжі Шрінівасана, який зазначив, що ШІ не забирає у людей роботу, а лише замінює попередні моделі. Шрінівасан підкреслив:

«Сьогоднішній ШІ не є по-справжньому агентним. Він дає змогу виконувати більше завдань, але не діє повністю самостійно».

Він також зазначив, що конкуренція відбувається в першу чергу між ШІ-моделями, такими як Midjourney і Stable Diffusion у створенні зображень, а також між GPT-4 і GPT-3 серед моделей загального призначення. Це підтверджує тезу Сакса про те, що людський контроль залишається ключовою умовою для ефективного використання технологій.

Нагадаємо, що Google нещодавно представила нову модель ШІ під назвою Gemini Deep Think, яка націлена на розширення можливостей штучного інтелекту.