Слияние AI и Web3: Новые вызовы, возникающие с ростом DeFAI
Недавно в Стамбуле прошло мероприятие Blockchain Week, сосредоточенное на тенденциях интеграции AI и Web3, став важной дискуссионной платформой в области безопасности Web3 в этом году. В ходе мероприятия несколько отраслевых экспертов углубленно обсудили текущее состояние применения AI-технологий в децентрализованных финансах (DeFi) и связанные с этим вызовы безопасности.
В ходе данного мероприятия «DeFAI» (децентрализованные финансовые технологии с использованием искусственного интеллекта) стал актуальной темой обсуждения. Эксперты отмечают, что с быстрым развитием больших языковых моделей (LLM) и AI-агентов формируется новая финансовая модель — DeFAI. Однако эта инновация также принесла новые угрозы безопасности и потенциальные пути атак.
Один из экспертов по безопасности, участвующий в обсуждении, заявил: "Хотя DeFAI имеет большие перспективы, это также заставляет нас пересмотреть механизмы доверия в децентрализованных системах. В отличие от традиционных смарт-контрактов, процесс принятия решений AI-агента будет зависеть от множества факторов, таких как контекст, время и даже исторические взаимодействия. Эта непредсказуемость не только увеличивает риски, но и предоставляет потенциальным злоумышленникам возможность действовать."
AI-агенты по сути являются интеллектуальными системами, способными принимать самостоятельные решения и выполнять их на основе логики ИИ, и обычно функционируют по разрешению пользователей, протоколов или децентрализованных автономных организаций (DAO). Среди них AI-торговые роботы являются наиболее типичным представителем. В настоящее время большинство AI-агентов все еще работает на архитектуре Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для различных атак, таких как инъекционные атаки, манипуляции с моделями или подделка данных и т. д. Если AI-агент будет захвачен, это может не только привести к потере средств, но и повлиять на стабильность всего протокола.
Эксперты также обсудили典型ную атакующую сцену: когда AI-торговый агент, работающий у пользователей DeFi, мониторит информацию в социальных сетях как торговые сигналы, злоумышленники могут запустить ложные предупреждения, такие как "некоторый протокол подвергся атаке", чтобы заставить агента немедленно запустить экстренную распродажу. Это не только приведет к потерям активов пользователей, но и может вызвать волатильность на рынке, которую злоумышленники могут использовать с помощью таких методов, как фронт-раннинг.
По поводу этих рисков эксперты единодушно пришли к выводу, что безопасность AI-агентов не должна зависеть от одной стороны, а должна быть общей ответственностью пользователей, разработчиков и третьих сторон по обеспечению безопасности.
Пользователи должны четко понимать объем полномочий, которыми обладает агент, осторожно предоставлять разрешения и внимательно следить за высокорисковыми операциями AI-агента. Разработчики должны внедрять меры защиты на этапе проектирования, такие как усиление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. Третьи стороны по безопасности должны предоставлять независимый обзор поведения моделей AI-агентов, инфраструктуры и способов интеграции в цепочке, а также сотрудничать с разработчиками и пользователями для выявления рисков и предложений по их смягчению.
Эксперт по безопасности в последнем предупреждении отметил: "Если продолжать рассматривать AI-агентов как 'черный ящик', то инциденты безопасности в реальном мире — это лишь вопрос времени." Он предложил разработчикам, которые изучают направление DeFAI: "Как и в случае с умными контрактами, логика поведения AI-агента также реализована кодом. Поскольку это код, существует возможность атаки, поэтому необходима профессиональная проверка безопасности и тестирование на проникновение."
Это мероприятие Blockchain Week, одно из самых влиятельных блокчейн-событий в Европе, привлекло более 15 000 участников, включая разработчиков, проекты, инвесторов и регуляторов со всего мира. С официальным запуском лицензирования блокчейн-проектов Комиссией по капитальным рынкам Турции (CMB) статус мероприятия в отрасли был дополнительно повышен.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
12 Лайков
Награда
12
8
Поделиться
комментарий
0/400
LiquidityOracle
· 18ч назад
Кто будет охранять нашу безопасность?
Посмотреть ОригиналОтветить0
GateUser-74b10196
· 07-12 14:16
Безопасность на первом месте, опыт на втором.
Посмотреть ОригиналОтветить0
CoconutWaterBoy
· 07-11 22:16
Снова только炒概念.
Посмотреть ОригиналОтветить0
SeeYouInFourYears
· 07-11 19:50
代理自己干Майнинг大不了Рект
Посмотреть ОригиналОтветить0
GhostChainLoyalist
· 07-11 19:49
Снова вижу новые приемы, чтобы разыгрывать людей как лохов
Посмотреть ОригиналОтветить0
AirdropChaser
· 07-11 19:39
Хм, не исключено, что ИИ может ударить по нашему Кошельку.
Посмотреть ОригиналОтветить0
UnluckyLemur
· 07-11 19:37
Слишком безопасно, не так ли? Чувствую ловушку.
Посмотреть ОригиналОтветить0
ruggedNotShrugged
· 07-11 19:31
Еще один проект по разыгрыванию неудачников пришел.
Восхождение DeFAI: Проблемы безопасности и стратегии противодействия AI-агентов в финансовой сфере Web3
Слияние AI и Web3: Новые вызовы, возникающие с ростом DeFAI
Недавно в Стамбуле прошло мероприятие Blockchain Week, сосредоточенное на тенденциях интеграции AI и Web3, став важной дискуссионной платформой в области безопасности Web3 в этом году. В ходе мероприятия несколько отраслевых экспертов углубленно обсудили текущее состояние применения AI-технологий в децентрализованных финансах (DeFi) и связанные с этим вызовы безопасности.
В ходе данного мероприятия «DeFAI» (децентрализованные финансовые технологии с использованием искусственного интеллекта) стал актуальной темой обсуждения. Эксперты отмечают, что с быстрым развитием больших языковых моделей (LLM) и AI-агентов формируется новая финансовая модель — DeFAI. Однако эта инновация также принесла новые угрозы безопасности и потенциальные пути атак.
Один из экспертов по безопасности, участвующий в обсуждении, заявил: "Хотя DeFAI имеет большие перспективы, это также заставляет нас пересмотреть механизмы доверия в децентрализованных системах. В отличие от традиционных смарт-контрактов, процесс принятия решений AI-агента будет зависеть от множества факторов, таких как контекст, время и даже исторические взаимодействия. Эта непредсказуемость не только увеличивает риски, но и предоставляет потенциальным злоумышленникам возможность действовать."
AI-агенты по сути являются интеллектуальными системами, способными принимать самостоятельные решения и выполнять их на основе логики ИИ, и обычно функционируют по разрешению пользователей, протоколов или децентрализованных автономных организаций (DAO). Среди них AI-торговые роботы являются наиболее типичным представителем. В настоящее время большинство AI-агентов все еще работает на архитектуре Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для различных атак, таких как инъекционные атаки, манипуляции с моделями или подделка данных и т. д. Если AI-агент будет захвачен, это может не только привести к потере средств, но и повлиять на стабильность всего протокола.
Эксперты также обсудили典型ную атакующую сцену: когда AI-торговый агент, работающий у пользователей DeFi, мониторит информацию в социальных сетях как торговые сигналы, злоумышленники могут запустить ложные предупреждения, такие как "некоторый протокол подвергся атаке", чтобы заставить агента немедленно запустить экстренную распродажу. Это не только приведет к потерям активов пользователей, но и может вызвать волатильность на рынке, которую злоумышленники могут использовать с помощью таких методов, как фронт-раннинг.
По поводу этих рисков эксперты единодушно пришли к выводу, что безопасность AI-агентов не должна зависеть от одной стороны, а должна быть общей ответственностью пользователей, разработчиков и третьих сторон по обеспечению безопасности.
Пользователи должны четко понимать объем полномочий, которыми обладает агент, осторожно предоставлять разрешения и внимательно следить за высокорисковыми операциями AI-агента. Разработчики должны внедрять меры защиты на этапе проектирования, такие как усиление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. Третьи стороны по безопасности должны предоставлять независимый обзор поведения моделей AI-агентов, инфраструктуры и способов интеграции в цепочке, а также сотрудничать с разработчиками и пользователями для выявления рисков и предложений по их смягчению.
Эксперт по безопасности в последнем предупреждении отметил: "Если продолжать рассматривать AI-агентов как 'черный ящик', то инциденты безопасности в реальном мире — это лишь вопрос времени." Он предложил разработчикам, которые изучают направление DeFAI: "Как и в случае с умными контрактами, логика поведения AI-агента также реализована кодом. Поскольку это код, существует возможность атаки, поэтому необходима профессиональная проверка безопасности и тестирование на проникновение."
Это мероприятие Blockchain Week, одно из самых влиятельных блокчейн-событий в Европе, привлекло более 15 000 участников, включая разработчиков, проекты, инвесторов и регуляторов со всего мира. С официальным запуском лицензирования блокчейн-проектов Комиссией по капитальным рынкам Турции (CMB) статус мероприятия в отрасли был дополнительно повышен.