Компанії мають прорахувати ризик втрати контролю над штучним інтелектом, як це робили з ядерною зброєю

13:37, 13 травня 2025
Дослідники попереджають: надпотужний штучний інтелект може становити загрозу, якщо заздалегідь не оцінити ймовірність втрати над ним контролю — як це свого часу зробили перед першим ядерним випробуванням.
Компанії мають прорахувати ризик втрати контролю над штучним інтелектом, як це робили з ядерною зброєю
Фото: unsplash
Слідкуйте за актуальними новинами у соцмережах SUD.UA

Компаніям, що розробляють потужні системи штучного інтелекту, варто оцінити ризики так само ретельно, як це зробив Роберт Оппенгеймер перед першим ядерним випробуванням. З таким закликом виступив один із провідних дослідників у сфері безпеки ШІ — професор MIT Макс Тегмарк, передає The Guardian.

У своїх розрахунках Тегмарк, разом зі студентами, створив аналог «константи Комптона» — ймовірності того, що надпотужний штучний надінтелект (ASI) вийде з-під людського контролю. За їхніми оцінками, цей ризик може сягати 90%.

Вперше термін з’явився у контексті випробування американської атомної бомби в 1945 році. Фізик Артур Комптон тоді оцінив імовірність, що ядерний вибух запустить неконтрольовану реакцію в атмосфері. Його висновок — «трохи менше одного шансу на три мільйони» — дозволив провести випробування Trinity.

«Компанії, які створюють надінтелект, повинні так само чітко порахувати ймовірність втрати контролю. Недостатньо сказати: “нам здається, все нормально”. Необхідний точний відсоток», — наголосив Тегмарк.

На його думку, прозорі розрахунки ризиків — від кількох компаній — можуть сформувати глобальну політичну волю до створення спільних правил безпеки для таких технологій.

Тегмарк, який також є співзасновником інституту Future of Life, уже давно закликає до обережності в розвитку ШІ. У 2023 році його організація опублікувала відкритого листа із закликом призупинити створення надпотужних моделей. Лист підписали понад 33 тисячі осіб, серед них Ілон Маск і співзасновник Apple Стів Возняк.

Тоді в листі йшлося, що лабораторії штучного інтелекту втягнуті в «неконтрольовану гонку» за створення «цифрових розумів», які люди вже не можуть передбачити, зрозуміти чи контролювати.

Тегмарк прокоментував ситуацію у контексті нового міжнародного документа — Singapore Consensus, що визначає глобальні пріоритети у сфері досліджень безпеки ШІ. Його підготували Тегмарк, провідний комп’ютерний вчений Йошуа Бенджіо, а також фахівці з OpenAI, Google DeepMind та інших компаній.

У документі визначено три ключові напрямки для безпечного розвитку:

  • створення методів оцінки впливу сучасного й майбутнього ШІ;
  • формулювання бажаної поведінки систем та побудова механізмів її досягнення;
  • контроль і управління поведінкою таких систем.

Після скептичних заяв віцепрезидента США Дж. Д. Венса на саміті в Парижі про те, що «майбутнє ШІ не виграється через страхи щодо безпеки», багато хто засумнівався у глобальному підході до регулювання.

Проте Тегмарк зазначає, що настрій змінився: «Здається, туман після Парижа розвіявся — і міжнародне співробітництво повертається з новою силою».

Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на наш VIBER, сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.

XX з’їзд суддів України – онлайн-трансляція – день перший
Telegram канал Sud.ua
XX з’їзд суддів України – онлайн-трансляція – день перший
Сьогодні день народження святкують
  • Зіновій Гавдик
    Зіновій Гавдик
    суддя Львівського окружного адміністративного суду
  • Віктор Данилишин
    Віктор Данилишин
    суддя Окружного адміністративного суду міста Києва
  • Сергій Клопот
    Сергій Клопот
    суддя Чернігівського окружного адміністративного суду
  • Василь Ключкович
    Василь Ключкович
    заступник голови Шостого апеляційного адміністративного суду
  • Тетяна Малишенко
    Тетяна Малишенко
    голова Славутицького міського суду Київської області