# Сверхрозумний ІІ може стати катастрофою — Віталік Бутерін
Людство недостатньо добре справляється з узгодженням загальносвітових цінностей, щоб гарантувати, що надрозумний штучний інтелект працюватиме на благо всім людям. Таку заяву зробив співзасновник Ethereum Віталік Бутерін.
Він прокоментував пост 3D-художника з ніком Utah teapot.
Як взагалі існує узгодження ШІ? Усі завжди запитують "узгоджено з чим" і ніхто ніколи не має відповіді, окрім "людських цінностей". Узгоджені, самосуперечливі людські цінності не існують. Я все ще не розумію. Що ми досліджуємо? Це смішно, що це зростає…
— чайник Юти 🫖 (@SkyeSharkie) 24 серпня 2025
«Як взагалі може існувати поняття AI alignment? Я завжди запитую: “узгодження з чим?”. Ніхто ніколи не відповідає нічого, крім “з людськими цінностями”. Але цілісних, непротирічних людських цінностей не існує. Я досі не розумію. Що ми взагалі досліджуємо? Абсурдно, що це перетворюється на зростаючу індустрію. Фіктивна робота», — написав він.
Бутерін підкреслив, що в світі існує багато речей, які суперечать етичним принципам. В приклад він навів вбивство або затримання невинних.
«[…] Ми поки недостатньо хороші в узгодженні, щоб гарантувати, що єдиний надрозумний ШІ уникне навіть цього», — додав розробник.
Utah teapot зазначив, що розвиток узгодженого штучного інтелекту рухається в бік обмеження публічного доступу до розробки. Водночас великі компанії продають версії своїх ІІ-систем, які сприяють негативним явищам і виступають інструментами війни.
«Я глибоко стурбований тим, що централізація доступу до ІІ-технологій дозволяє нав'язувати як питання безпеки те, що насправді нею не є — наприклад, обговорення навколо “психозу” від LLM. Таким чином виникає ризик завдати шкоди унікальним або маргінальним культурам та їх цінностям», — зазначив користувач.
Бутерін розділяє багато з цих занепокоєнь.
«Я думаю, що найбільші ризики будуть виходити від військових та інших структур, що мають велику владу, що дозволяє їм виводити себе з-під дії правил безпеки, які для всіх інших йдуть за замовчуванням», — додав співзасновник Ethereum.
Utah teapot в якості прикладу навів ІІ-стартап Anthropic. Він розробляє альтернативні версії «громадянських» моделей і надає урядам. Їх можуть застосовувати для військових або розвідувальних дій.
Бутерін підкреслив, що ймовірність катастрофічного сценарію для людства через ШІ підвищується в тому випадку, якщо буде лише один надрозумний агентний штучний інтелект, що має власну волю та здатність діяти як суб'єкт.
Якщо середовище буде плюралістичним, жодна з систем не зможе тотально контролювати ситуацію. Однак для її створення одних лише ринкових механізмів недостатньо. Необхідні цілеспрямовані зусилля, зокрема зміни в законах і стимулах, які не сподобаються великим корпораціям.
Нагадаємо, у 2022 році міністр інформаційних технологій Індії Раджив Чандрасекар закликав до розробки глобальних стандартів, що гарантують безпеку ШІ для людини.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Сверхразумний ІІ може стати катастрофою — Віталік Бутерін
Людство недостатньо добре справляється з узгодженням загальносвітових цінностей, щоб гарантувати, що надрозумний штучний інтелект працюватиме на благо всім людям. Таку заяву зробив співзасновник Ethereum Віталік Бутерін.
Він прокоментував пост 3D-художника з ніком Utah teapot.
Бутерін підкреслив, що в світі існує багато речей, які суперечать етичним принципам. В приклад він навів вбивство або затримання невинних.
Utah teapot зазначив, що розвиток узгодженого штучного інтелекту рухається в бік обмеження публічного доступу до розробки. Водночас великі компанії продають версії своїх ІІ-систем, які сприяють негативним явищам і виступають інструментами війни.
Бутерін розділяє багато з цих занепокоєнь.
Utah teapot в якості прикладу навів ІІ-стартап Anthropic. Він розробляє альтернативні версії «громадянських» моделей і надає урядам. Їх можуть застосовувати для військових або розвідувальних дій.
Бутерін підкреслив, що ймовірність катастрофічного сценарію для людства через ШІ підвищується в тому випадку, якщо буде лише один надрозумний агентний штучний інтелект, що має власну волю та здатність діяти як суб'єкт.
Якщо середовище буде плюралістичним, жодна з систем не зможе тотально контролювати ситуацію. Однак для її створення одних лише ринкових механізмів недостатньо. Необхідні цілеспрямовані зусилля, зокрема зміни в законах і стимулах, які не сподобаються великим корпораціям.
Нагадаємо, у 2022 році міністр інформаційних технологій Індії Раджив Чандрасекар закликав до розробки глобальних стандартів, що гарантують безпеку ШІ для людини.