Відкриття Пандорової скриньки: загроза безмежних AI моделей для шифрувальної індустрії
З розвитком технологій штучного інтелекту, від серії GPT до таких передових моделей, як Gemini, відбуваються глибокі зміни у нашій роботі та способі життя. Однак разом із прогресом технологій виникають і потенційні ризики — поява безконтрольних або зловмисних великих мовних моделей.
Так звані моделі мов без обмежень — це ті, які були навмисно розроблені, змінені або "зламані", щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Хоча основні розробники ШІ вкладають багато ресурсів у запобігання зловживанню моделями, деякі особи чи організації з незаконними намірами починають шукати або розробляти моделі без обмежень. У цій статті ми розглянемо типові випадки таких моделей без обмежень, потенційні загрози в галузі шифрування, а також пов'язані з ними виклики безпеки та стратегії реагування.
Загроза необмежених AI моделей
З'явлення таких моделей значно знизило бар'єри для кіберзлочинності. Завдання, які раніше вимагали професійних навичок, такі як написання шкідливого коду, створення фішингових електронних листів, планування шахрайства тощо, зараз за допомогою необмеженого AI можуть виконати навіть новачки в технологіях. Зловмисникам потрібно лише отримати ваги та вихідний код відкритої моделі, а потім провести доопрацювання на наборі даних, що містить шкідливий контент або незаконні інструкції, щоб створити індивідуалізований інструмент для атак.
Цей режим приніс численні ризики:
Зловмисники можуть налаштувати модель на основі конкретної мети, генеруючи більш обманливий контент, щоб обійти звичайну перевірку контенту AI.
Модель може бути використана для швидкого генерування варіантів коду фішингових сайтів або для адаптації шахрайських текстів під різні платформи.
Доступність відкритих моделей сприяє формуванню підпільної екосистеми ШІ, створюючи сприятливе середовище для незаконної торгівлі та розробки.
Типові моделі штучного інтелекту без обмежень та їх загрози
WormGPT:темна версія GPT
WormGPT — це шкідливий AI-модель, яка продається на підпільних форумах і стверджує, що не має жодних моральних обмежень. Вона основана на відкритих моделях, таких як GPT-J 6B, і навчалася на великій кількості даних, пов'язаних з шкідливим програмним забезпеченням. Користувачам потрібно лише 189 доларів, щоб отримати місячний доступ.
У сфері шифрування WormGPT може бути зловжито для:
Генерувати надзвичайно реалістичні фішингові електронні листи, які спонукають користувачів натискати на шкідливі посилання або розкривати приватні ключі.
Допомога атака́нтам з нижчим технічним рівнем у написанні зловмисного коду для крадіжки файлів гаманців, моніторингу буфера обміну тощо.
Керування автоматизацією шахрайства, автоматичне реагування на потенційних жертв, направлення до участі у фальшивих проєктах.
DarkBERT:двосічний меч контенту темної мережі
DarkBERT є мовною моделлю, попередньо навченою на даних з темної мережі, яка спочатку була розроблена, щоб допомогти дослідникам і правоохоронним органам зрозуміти екосистему темної мережі. Але якщо її отримають або запозичать злочинці, це може призвести до серйозних ризиків.
У потенційних загрозах у сфері шифрування є:
Збирати інформацію про користувачів та команду проєкту для точного соціального інжинірингу.
Копіювання зрілих стратегій крадіжки криптовалюти та відмивання грошей з темної мережі.
FraudGPT:мультфункціональний інструмент для мережевого шахрайства
FraudGPT самопроголошується як покращена версія WormGPT, з більш широкими функціями, головним чином продається в темній мережі. У сфері шифрування може бути зловжито для:
Створення реалістичних фальшивих документів про шифрування проектів, офіційних сайтів тощо, для реалізації шахрайства з ICO.
Пакетна генерація підроблених фішингових сторінок відомих бірж.
Масове виготовлення фальшивих відгуків, просування шахрайських токенів або дискредитація конкурентних проектів.
Імітувати людську розмову, встановлювати довіру з користувачем, спонукати до витоку чутливої інформації.
GhostGPT: AI помічник без моральних обмежень
GhostGPT чітко позиціонується як AI-чат-бот без етичних обмежень. Потенційні загрози в сфері шифрування включають:
Генерація високоякісних фішингових листів, що видають себе за повідомлення від біржі.
Швидке створення смарт-контрактів з прихованими бекдорами для схем Rug Pull.
Створення шкідливого програмного забезпечення з можливістю постійної деформації для крадіжки інформації з гаманців.
Поєднуючи штучний інтелект для генерації текстів, розгортаємо шахрайських роботів на соціальних платформах.
Співпрацюючи з іншими AI інструментами, генерувати підроблені голоси представників проекту для здійснення телефонних шахрайств.
Venice.ai: потенційні ризики безцензурного доступу
Venice.ai надає доступ до різноманітних AI-моделей з обмеженнями, хоча метою є дослідження можливостей AI, але це також може бути зловживано. Потенційні ризики включають:
Обійти цензуру для створення шкідливого контенту, такого як фішингові шаблони, неправдива реклама тощо.
Знижувати поріг входження в проект, щоб зловмисники могли легше отримувати спочатку обмежений вихід.
Прискорення ітерацій атакуючих сценаріїв, швидке тестування та оптимізація шахрайських скриптів.
Стратегії реагування
Поява безмежних AI-моделей знаменує нову парадигму атак, яка є більш складною, масштабною та автоматизованою, з якою стикається кібербезпека. Це не лише знижує бар'єри для атак, але й приносить нові, більш приховані та обманливі загрози.
Щоб впоратися з цими викликами, усім сторонам безпечної екосистеми потрібно спільно працювати:
Збільшити інвестиції в технології тестування, розробити системи, які можуть ідентифікувати та блокувати шкідливий контент, згенерований ШІ, вразливості смарт-контрактів та шкідливий код.
Сприяти розвитку здатності моделей до захисту від зломів, досліджувати механізми водяних знаків та відстеження, щоб мати можливість відстежувати джерела шкідливого контенту в критичних сценаріях.
Створення ефективних етичних норм і механізмів регулювання для штучного інтелекту, щоб обмежити з самого початку розробку та зловживання шкідливими моделями.
Посилити освіту користувачів, підвищити обізнаність громадськості про можливості розпізнавання контенту, створеного ШІ, та безпеку.
Сприяти співпраці в галузі, створити механізм обміну інформацією, своєчасно попереджати про нові загрози, пов'язані з ШІ.
Стикаючись із цим безперервно зростаючим змаганням атак і оборони, лише спільними зусиллями та постійними інноваціями можна ефективно протистояти викликам безпеки епохи ШІ та забезпечити здоровий розвиток шифрування-індустрії.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
11 лайків
Нагородити
11
4
Поділіться
Прокоментувати
0/400
LiquidationWizard
· 07-11 03:13
Рекомендується вручну перевірити ноду, не можна повністю довіряти штучному інтелекту!
Переглянути оригіналвідповісти на0
GasFeeCryer
· 07-11 03:07
Бояться крадіжки Накопичення монет не так вже й погано.
Невизначені моделі ШІ: загрози для шифрування та стратегії реагування
Відкриття Пандорової скриньки: загроза безмежних AI моделей для шифрувальної індустрії
З розвитком технологій штучного інтелекту, від серії GPT до таких передових моделей, як Gemini, відбуваються глибокі зміни у нашій роботі та способі життя. Однак разом із прогресом технологій виникають і потенційні ризики — поява безконтрольних або зловмисних великих мовних моделей.
Так звані моделі мов без обмежень — це ті, які були навмисно розроблені, змінені або "зламані", щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Хоча основні розробники ШІ вкладають багато ресурсів у запобігання зловживанню моделями, деякі особи чи організації з незаконними намірами починають шукати або розробляти моделі без обмежень. У цій статті ми розглянемо типові випадки таких моделей без обмежень, потенційні загрози в галузі шифрування, а також пов'язані з ними виклики безпеки та стратегії реагування.
Загроза необмежених AI моделей
З'явлення таких моделей значно знизило бар'єри для кіберзлочинності. Завдання, які раніше вимагали професійних навичок, такі як написання шкідливого коду, створення фішингових електронних листів, планування шахрайства тощо, зараз за допомогою необмеженого AI можуть виконати навіть новачки в технологіях. Зловмисникам потрібно лише отримати ваги та вихідний код відкритої моделі, а потім провести доопрацювання на наборі даних, що містить шкідливий контент або незаконні інструкції, щоб створити індивідуалізований інструмент для атак.
Цей режим приніс численні ризики:
Типові моделі штучного інтелекту без обмежень та їх загрози
WormGPT:темна версія GPT
WormGPT — це шкідливий AI-модель, яка продається на підпільних форумах і стверджує, що не має жодних моральних обмежень. Вона основана на відкритих моделях, таких як GPT-J 6B, і навчалася на великій кількості даних, пов'язаних з шкідливим програмним забезпеченням. Користувачам потрібно лише 189 доларів, щоб отримати місячний доступ.
У сфері шифрування WormGPT може бути зловжито для:
DarkBERT:двосічний меч контенту темної мережі
DarkBERT є мовною моделлю, попередньо навченою на даних з темної мережі, яка спочатку була розроблена, щоб допомогти дослідникам і правоохоронним органам зрозуміти екосистему темної мережі. Але якщо її отримають або запозичать злочинці, це може призвести до серйозних ризиків.
У потенційних загрозах у сфері шифрування є:
FraudGPT:мультфункціональний інструмент для мережевого шахрайства
FraudGPT самопроголошується як покращена версія WormGPT, з більш широкими функціями, головним чином продається в темній мережі. У сфері шифрування може бути зловжито для:
GhostGPT: AI помічник без моральних обмежень
GhostGPT чітко позиціонується як AI-чат-бот без етичних обмежень. Потенційні загрози в сфері шифрування включають:
Venice.ai: потенційні ризики безцензурного доступу
Venice.ai надає доступ до різноманітних AI-моделей з обмеженнями, хоча метою є дослідження можливостей AI, але це також може бути зловживано. Потенційні ризики включають:
Стратегії реагування
Поява безмежних AI-моделей знаменує нову парадигму атак, яка є більш складною, масштабною та автоматизованою, з якою стикається кібербезпека. Це не лише знижує бар'єри для атак, але й приносить нові, більш приховані та обманливі загрози.
Щоб впоратися з цими викликами, усім сторонам безпечної екосистеми потрібно спільно працювати:
Збільшити інвестиції в технології тестування, розробити системи, які можуть ідентифікувати та блокувати шкідливий контент, згенерований ШІ, вразливості смарт-контрактів та шкідливий код.
Сприяти розвитку здатності моделей до захисту від зломів, досліджувати механізми водяних знаків та відстеження, щоб мати можливість відстежувати джерела шкідливого контенту в критичних сценаріях.
Створення ефективних етичних норм і механізмів регулювання для штучного інтелекту, щоб обмежити з самого початку розробку та зловживання шкідливими моделями.
Посилити освіту користувачів, підвищити обізнаність громадськості про можливості розпізнавання контенту, створеного ШІ, та безпеку.
Сприяти співпраці в галузі, створити механізм обміну інформацією, своєчасно попереджати про нові загрози, пов'язані з ШІ.
Стикаючись із цим безперервно зростаючим змаганням атак і оборони, лише спільними зусиллями та постійними інноваціями можна ефективно протистояти викликам безпеки епохи ШІ та забезпечити здоровий розвиток шифрування-індустрії.