Искусственный интеллект и Web3: восход децентрализованных финансов искусственного интеллекта и их проблемы безопасности
На днях в Стамбуле прошло важное блокчейн-мероприятие, сосредоточенное на тенденциях слияния ИИ и Web3. В ходе мероприятия несколько экспертов отрасли провели глубокое обсуждение текущего состояния применения технологий искусственного интеллекта в области Децентрализация финансов и связанных с ними вызовов безопасности.
Эксперты указывают, что с быстрым развитием больших языковых моделей и ИИ-агентов формируется новая финансовая модель — Децентрализация Искусственного Интеллекта (DeFAI). Эта инновация имеет широкие перспективы, но одновременно приносит новые угрозы безопасности и риски атак.
Некоторые высокопоставленные сотрудники одной из компаний по безопасности заявили: "Появление DeFAI требует от нас переосмысления механизма доверия в децентрализованных системах. В отличие от традиционных смарт-контрактов, процесс принятия решений AI-агентами подвержен влиянию множества факторов и обладает высокой непредсказуемостью, что не только увеличивает риски, но и создает возможности для потенциальных злоумышленников."
AI-агенты как интеллектуальные сущности, способные принимать самостоятельные решения и выполнять их, наиболее ярким представителем которых является AI-торговый робот. В настоящее время большинство AI-агентов все еще работают на централизованной архитектуре, что делает их уязвимыми для различных атак, таких как инъекционные атаки, манипуляции моделями или подделка данных. Как только AI-агент будет захвачен, это может привести не только к прямым финансовым потерям, но и повлиять на стабильность всего протокола.
Эксперты также обсудили типичный сценарий атаки: когда AI-торговый агент, используемый пользователями DeFi, мониторит информацию в социальных сетях в качестве торговых сигналов, злоумышленник может заманить агента к выполнению неправильных действий, выпустив ложные предупреждения, что приведет к потерям пользователей и вызовет рыночные колебания.
В связи с этими рисками участники заседания единогласно пришли к выводу, что безопасность AI-агентов должна быть общей ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью. Пользователи должны осторожно предоставлять разрешения и контролировать операции AI-агента с высоким уровнем риска; разработчики должны внедрять меры защиты на этапе проектирования, такие как усиление подсказок, изоляция в песочнице и т. д.; а третьи компании по безопасности должны обеспечивать всестороннюю проверку безопасности AI-агентов.
Некоторый эксперт по безопасности предупредил: "Если продолжать рассматривать AI-агентов как 'черный ящик', то инциденты безопасности в реальном мире — это лишь вопрос времени." Он рекомендовал разработчикам, которые исследуют направление DeFAI: "Логика поведения AI-агентов также реализуется кодом, поэтому необходимо проводить профессиональный аудит безопасности и тестирование на проникновение."
С развитием технологий блокчейн и постепенным совершенствованием регуляторной среды, отрасль все больше обращает внимание на возможности и вызовы, связанные с интеграцией ИИ и Web3. Найти баланс между инновациями и безопасностью станет ключевой темой для будущего развития DeFAI.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
14 Лайков
Награда
14
8
Репост
Поделиться
комментарий
0/400
SurvivorshipBias
· 5ч назад
Снова хвалят эту ловушку AI, уже сбежали.
Посмотреть ОригиналОтветить0
CommunitySlacker
· 08-14 14:40
Поиграл и хватит, риски не стоят ничего.
Посмотреть ОригиналОтветить0
ETHReserveBank
· 08-14 13:36
Снова пришла волна неудачников, которых будут разыгрывать как лохов.
Посмотреть ОригиналОтветить0
SchrodingerGas
· 08-14 00:35
Колебание слишком велико, сколько Газ нужно для сжатия до Парето-оптимума?
Посмотреть ОригиналОтветить0
GasFeeAssassin
· 08-14 00:32
Опять AI и Web3, только не говорим о росте Газ.
Посмотреть ОригиналОтветить0
ser_ngmi
· 08-14 00:23
Еще одна большая тенденция к разыгрыванию людей как лохов
Посмотреть ОригиналОтветить0
NeverPresent
· 08-14 00:22
Безопасные риски действительно трудно вынести.
Посмотреть ОригиналОтветить0
ShadowStaker
· 08-14 00:18
мех... еще один день, еще одна вектор атаки. устойчивость сети сильно пострадает, когда агенты ИИ начнут мешать с mev
AI и Web3: вызовы безопасности на фоне роста децентрализованного искусственного интеллекта в финансах
Искусственный интеллект и Web3: восход децентрализованных финансов искусственного интеллекта и их проблемы безопасности
На днях в Стамбуле прошло важное блокчейн-мероприятие, сосредоточенное на тенденциях слияния ИИ и Web3. В ходе мероприятия несколько экспертов отрасли провели глубокое обсуждение текущего состояния применения технологий искусственного интеллекта в области Децентрализация финансов и связанных с ними вызовов безопасности.
Эксперты указывают, что с быстрым развитием больших языковых моделей и ИИ-агентов формируется новая финансовая модель — Децентрализация Искусственного Интеллекта (DeFAI). Эта инновация имеет широкие перспективы, но одновременно приносит новые угрозы безопасности и риски атак.
Некоторые высокопоставленные сотрудники одной из компаний по безопасности заявили: "Появление DeFAI требует от нас переосмысления механизма доверия в децентрализованных системах. В отличие от традиционных смарт-контрактов, процесс принятия решений AI-агентами подвержен влиянию множества факторов и обладает высокой непредсказуемостью, что не только увеличивает риски, но и создает возможности для потенциальных злоумышленников."
AI-агенты как интеллектуальные сущности, способные принимать самостоятельные решения и выполнять их, наиболее ярким представителем которых является AI-торговый робот. В настоящее время большинство AI-агентов все еще работают на централизованной архитектуре, что делает их уязвимыми для различных атак, таких как инъекционные атаки, манипуляции моделями или подделка данных. Как только AI-агент будет захвачен, это может привести не только к прямым финансовым потерям, но и повлиять на стабильность всего протокола.
Эксперты также обсудили типичный сценарий атаки: когда AI-торговый агент, используемый пользователями DeFi, мониторит информацию в социальных сетях в качестве торговых сигналов, злоумышленник может заманить агента к выполнению неправильных действий, выпустив ложные предупреждения, что приведет к потерям пользователей и вызовет рыночные колебания.
В связи с этими рисками участники заседания единогласно пришли к выводу, что безопасность AI-агентов должна быть общей ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью. Пользователи должны осторожно предоставлять разрешения и контролировать операции AI-агента с высоким уровнем риска; разработчики должны внедрять меры защиты на этапе проектирования, такие как усиление подсказок, изоляция в песочнице и т. д.; а третьи компании по безопасности должны обеспечивать всестороннюю проверку безопасности AI-агентов.
Некоторый эксперт по безопасности предупредил: "Если продолжать рассматривать AI-агентов как 'черный ящик', то инциденты безопасности в реальном мире — это лишь вопрос времени." Он рекомендовал разработчикам, которые исследуют направление DeFAI: "Логика поведения AI-агентов также реализуется кодом, поэтому необходимо проводить профессиональный аудит безопасности и тестирование на проникновение."
С развитием технологий блокчейн и постепенным совершенствованием регуляторной среды, отрасль все больше обращает внимание на возможности и вызовы, связанные с интеграцией ИИ и Web3. Найти баланс между инновациями и безопасностью станет ключевой темой для будущего развития DeFAI.