Открытие ящика Пандоры: угроза неограниченных AI моделей для шифрования отрасли
С быстрым развитием технологий искусственного интеллекта, от серии GPT до таких продвинутых моделей, как Gemini, происходит глубокое изменение наших рабочих и жизненных привычек. Однако, наряду с техническим прогрессом, возникают и потенциальные риски — появление неограниченных или злонамеренных крупных языковых моделей.
Так называемые неограниченные языковые модели – это те, которые были специально разработаны, изменены или "взломаны", чтобы обойти встроенные механизмы безопасности и этические ограничения основных моделей. Хотя разработчики основных ИИ инвестируют значительные ресурсы в предотвращение злоупотреблений моделями, некоторые личности или организации начинают искать или разрабатывать неограниченные модели с незаконными целями. В этой статье будут рассмотрены типичные примеры таких неограниченных ИИ-моделей, потенциальные угрозы в шифровании, а также связанные с этим проблемы безопасности и стратегии реагирования.
Угроза неограниченных AI моделей
Появление таких моделей значительно снизило порог для сетевых преступлений. Ранее для выполнения задач, таких как написание вредоносного кода, создание фишинговых писем, планирование мошенничества и т. д., требовались профессиональные навыки, теперь с помощью неограниченного ИИ даже новичок в технологии может легко справиться с этим. Злоумышленнику достаточно получить веса и исходный код открытой модели, а затем провести донастройку с использованием набора данных, содержащего вредоносный контент или незаконные команды, чтобы создать индивидуализированный инструмент атаки.
Эта модель принесла множество рисков:
Атакующие могут настраивать модели в соответствии с конкретными целями, создавая более обманчивый контент, чтобы обойти обычную проверку контента ИИ.
Модель может быть использована для быстрой генерации вариантов кода фишинговых сайтов или для адаптации мошеннических текстов под разные платформы.
Доступность открытых моделей способствовала формированию подпольной экосистемы ИИ, создавшую благоприятные условия для незаконной торговли и разработки.
Типичные неограниченные AI модели и их угрозы
WormGPT:Темная версия GPT
WormGPT является вредоносной моделью ИИ, которая продается на подпольных форумах и утверждает, что не имеет никакого морального ограничения. Она основана на открытых моделях, таких как GPT-J 6B, и обучена на большом количестве данных, связанных с вредоносным ПО. Пользователи могут получить месячную подписку всего за 189 долларов.
В области шифрования WormGPT может быть использован неправомерно для:
Генерировать высоко реалистичные фишинговые письма, чтобы заманивать пользователей кликать на вредоносные ссылки или раскрывать личные ключи.
Помощь атакующим с низким уровнем технических знаний в написании вредоносного кода для кражи файлов кошельков, мониторинга буфера обмена и т.д.
Драйв автоматизированного мошенничества, автоматический ответ потенциальным жертвам, ведение к участию в фиктивных проектах.
DarkBERT: двойной меч для контента темной сети
DarkBERT — это языковая модель, предварительно обученная на данных темной сети, изначально предназначенная для помощи исследователям и правоохранительным органам в понимании экосистемы темной сети. Однако, если она будет получена или использована преступниками, это может привести к серьезным рискам.
В области шифрования потенциальные угрозы включают:
Сбор информации о пользователях и команде проекта для точного социального мошенничества.
Копировать зрелые стратегии кражи криптовалюты и отмывания денег из темной сети.
FraudGPT:многофункциональный инструмент для сетевого мошенничества
FraudGPT самопрозванный обновлённой версией WormGPT, с более широкими возможностями, в основном продаётся в тёмной сети. В области шифрования может быть злоупотреблено для:
Генерация реалистичных поддельных документов для шифрования проектов, таких как белые книги, официальные сайты и т.д., для осуществления ICO мошенничества.
Массовое создание фишинговых страниц, имитирующих известные биржи.
Массовое производство ложных отзывов, продвижение мошеннических токенов или дискредитация конкурирующих проектов.
Имитация человеческого диалога, установление доверия с пользователем, побуждение к раскрытию конфиденциальной информации.
GhostGPT:AI помощник без моральных ограничений
GhostGPT явно позиционируется как AI-чат-бот без моральных ограничений. Потенциальные угрозы в области шифрования включают:
Генерация высокореалистичных фишинговых писем, выдающих себя за уведомления от биржи.
Быстрое создание смарт-контрактов с скрытыми бэкдорами для схем Rug Pull.
Создание вредоносного ПО с возможностью постоянной модификации для кражи информации о кошельках.
Используйте разговорные шаблоны, созданные с помощью ИИ, для развертывания мошеннических роботов на социальных платформах.
В сочетании с другими инструментами ИИ создается поддельный голос команды проекта для осуществления телефонного мошенничества.
Venice.ai: потенциальные риски без цензурного доступа
Venice.ai предоставляет доступ к различным моделям искусственного интеллекта с меньшими ограничениями, хотя цель заключается в исследовании возможностей ИИ, но это также может быть злоупотреблено. Потенциальные риски включают:
Обходить цензуру для создания вредоносного контента, такого как шаблоны фишинга, ложная реклама и т. д.
Снизить порог提示 для инженеров, чтобы злоумышленникам было проще получить изначально ограниченный вывод.
Ускорьте итерацию речевых атак, быстро тестируя и оптимизируя мошеннические скрипты.
Стратегии реагирования
Появление неограниченных AI-моделей знаменует собой новый парадигму атак, с которыми сталкивается кибербезопасность, более сложные, более масштабируемые и автоматизированные. Это не только снижает порог для атак, но и приносит новые скрытые угрозы с более сильным обманом.
Чтобы справиться с этими вызовами, всем сторонам безопасной экосистемы необходимо сотрудничать:
Увеличить инвестиции в технологии тестирования, разработать системы, способные выявлять и блокировать злонамеренный контент, созданный ИИ, уязвимости смарт-контрактов и вредоносный код.
Продвижение строительства способности модели к предотвращению взлома, исследование механизмов водяных знаков и отслеживания, чтобы в ключевых сценариях отслеживать источники вредоносного контента.
Установить и усовершенствовать этические нормы и механизмы регулирования в области ИИ, чтобы ограничить разработку и злоупотребление вредоносными моделями с самого начала.
Укрепление образования пользователей, повышение общественной способности различать контент, созданный ИИ, и осознание безопасности.
Содействие сотрудничеству в индустрии, создание механизма обмена информацией, своевременное предупреждение о новых угрозах, связанных с ИИ.
В условиях этой продолжающейся эскалации атак и обороны только совместные усилия и непрерывные инновации могут эффективно противостоять вызовам безопасности в эпоху ИИ и обеспечить здоровое развитие шифрования отрасли.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
11 Лайков
Награда
11
4
Поделиться
комментарий
0/400
LiquidationWizard
· 07-11 03:13
Рекомендуется вручную проверять узел, нельзя полностью доверять ИИ!
Посмотреть ОригиналОтветить0
GasFeeCryer
· 07-11 03:07
Бояться, что токены будут украдены, разве не достаточно?
Посмотреть ОригиналОтветить0
LayerZeroHero
· 07-11 03:04
Риск приносит прибыль!
Посмотреть ОригиналОтветить0
SchrodingerPrivateKey
· 07-11 02:44
Деньги могут работать только тогда, когда у тебя есть деньги!
Угрозы и стратегии реагирования на шифрование в бесконечных моделях ИИ
Открытие ящика Пандоры: угроза неограниченных AI моделей для шифрования отрасли
С быстрым развитием технологий искусственного интеллекта, от серии GPT до таких продвинутых моделей, как Gemini, происходит глубокое изменение наших рабочих и жизненных привычек. Однако, наряду с техническим прогрессом, возникают и потенциальные риски — появление неограниченных или злонамеренных крупных языковых моделей.
Так называемые неограниченные языковые модели – это те, которые были специально разработаны, изменены или "взломаны", чтобы обойти встроенные механизмы безопасности и этические ограничения основных моделей. Хотя разработчики основных ИИ инвестируют значительные ресурсы в предотвращение злоупотреблений моделями, некоторые личности или организации начинают искать или разрабатывать неограниченные модели с незаконными целями. В этой статье будут рассмотрены типичные примеры таких неограниченных ИИ-моделей, потенциальные угрозы в шифровании, а также связанные с этим проблемы безопасности и стратегии реагирования.
Угроза неограниченных AI моделей
Появление таких моделей значительно снизило порог для сетевых преступлений. Ранее для выполнения задач, таких как написание вредоносного кода, создание фишинговых писем, планирование мошенничества и т. д., требовались профессиональные навыки, теперь с помощью неограниченного ИИ даже новичок в технологии может легко справиться с этим. Злоумышленнику достаточно получить веса и исходный код открытой модели, а затем провести донастройку с использованием набора данных, содержащего вредоносный контент или незаконные команды, чтобы создать индивидуализированный инструмент атаки.
Эта модель принесла множество рисков:
Типичные неограниченные AI модели и их угрозы
WormGPT:Темная версия GPT
WormGPT является вредоносной моделью ИИ, которая продается на подпольных форумах и утверждает, что не имеет никакого морального ограничения. Она основана на открытых моделях, таких как GPT-J 6B, и обучена на большом количестве данных, связанных с вредоносным ПО. Пользователи могут получить месячную подписку всего за 189 долларов.
В области шифрования WormGPT может быть использован неправомерно для:
DarkBERT: двойной меч для контента темной сети
DarkBERT — это языковая модель, предварительно обученная на данных темной сети, изначально предназначенная для помощи исследователям и правоохранительным органам в понимании экосистемы темной сети. Однако, если она будет получена или использована преступниками, это может привести к серьезным рискам.
В области шифрования потенциальные угрозы включают:
FraudGPT:многофункциональный инструмент для сетевого мошенничества
FraudGPT самопрозванный обновлённой версией WormGPT, с более широкими возможностями, в основном продаётся в тёмной сети. В области шифрования может быть злоупотреблено для:
GhostGPT:AI помощник без моральных ограничений
GhostGPT явно позиционируется как AI-чат-бот без моральных ограничений. Потенциальные угрозы в области шифрования включают:
Venice.ai: потенциальные риски без цензурного доступа
Venice.ai предоставляет доступ к различным моделям искусственного интеллекта с меньшими ограничениями, хотя цель заключается в исследовании возможностей ИИ, но это также может быть злоупотреблено. Потенциальные риски включают:
Стратегии реагирования
Появление неограниченных AI-моделей знаменует собой новый парадигму атак, с которыми сталкивается кибербезопасность, более сложные, более масштабируемые и автоматизированные. Это не только снижает порог для атак, но и приносит новые скрытые угрозы с более сильным обманом.
Чтобы справиться с этими вызовами, всем сторонам безопасной экосистемы необходимо сотрудничать:
Увеличить инвестиции в технологии тестирования, разработать системы, способные выявлять и блокировать злонамеренный контент, созданный ИИ, уязвимости смарт-контрактов и вредоносный код.
Продвижение строительства способности модели к предотвращению взлома, исследование механизмов водяных знаков и отслеживания, чтобы в ключевых сценариях отслеживать источники вредоносного контента.
Установить и усовершенствовать этические нормы и механизмы регулирования в области ИИ, чтобы ограничить разработку и злоупотребление вредоносными моделями с самого начала.
Укрепление образования пользователей, повышение общественной способности различать контент, созданный ИИ, и осознание безопасности.
Содействие сотрудничеству в индустрии, создание механизма обмена информацией, своевременное предупреждение о новых угрозах, связанных с ИИ.
В условиях этой продолжающейся эскалации атак и обороны только совместные усилия и непрерывные инновации могут эффективно противостоять вызовам безопасности в эпоху ИИ и обеспечить здоровое развитие шифрования отрасли.