Повідомлення BlockBeats, 21 грудня засновник Ethereum Віталік Бутерін опублікував повідомлення у соціальних мережах, в якому заявив: «Моя визначення AGI (штучного загального інтелекту) полягає в тому, що AGI - це достатньо потужний штучний інтелект, якщо якось усі люди раптово зникнуть і цей ШІ буде завантажений в робота, він зможе самостійно продовжувати цивілізацію. Це, зрозуміло, дуже складне визначення, але я вважаю, що це є основним інтуїтивним розрізненням між «звичайним ШІ», яким ми звикли, і AGI, яке ілюструє перехід від інструменту, який постійно залежить від вводу людини, до самостійної форми життя. ASI (штучний суперінтелект) - це інша справа повністю - моя визначення полягає в тому, що коли люди більше не створюють вартість у виробництві (так само, як у шахах ми досягли цього лише у минулому десятилітті). Так, ASI лякає мене - навіть AGI, яким я визначаю, також лякає мене, оскільки воно несе очевидні ризики втрати контролю. Я підтримую фокусування на розробці інтелектуальних засобів підвищення для людей, а не на створенні суперінтелектуальних форм життя.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Віталік: підтримую зосередження зусиль на створенні інструментів розумного підсилення для людства, а не на створенні суперінтелектуального життя.
Повідомлення BlockBeats, 21 грудня засновник Ethereum Віталік Бутерін опублікував повідомлення у соціальних мережах, в якому заявив: «Моя визначення AGI (штучного загального інтелекту) полягає в тому, що AGI - це достатньо потужний штучний інтелект, якщо якось усі люди раптово зникнуть і цей ШІ буде завантажений в робота, він зможе самостійно продовжувати цивілізацію. Це, зрозуміло, дуже складне визначення, але я вважаю, що це є основним інтуїтивним розрізненням між «звичайним ШІ», яким ми звикли, і AGI, яке ілюструє перехід від інструменту, який постійно залежить від вводу людини, до самостійної форми життя. ASI (штучний суперінтелект) - це інша справа повністю - моя визначення полягає в тому, що коли люди більше не створюють вартість у виробництві (так само, як у шахах ми досягли цього лише у минулому десятилітті). Так, ASI лякає мене - навіть AGI, яким я визначаю, також лякає мене, оскільки воно несе очевидні ризики втрати контролю. Я підтримую фокусування на розробці інтелектуальних засобів підвищення для людей, а не на створенні суперінтелектуальних форм життя.