Model bahasa besar tanpa batas: ancaman keamanan baru di industri enkripsi

robot
Pembuatan abstrak sedang berlangsung

Model Bahasa Besar Tanpa Batas: Ancaman Baru Keamanan Industri Enkripsi

Dengan cepatnya perkembangan teknologi kecerdasan buatan, model-model canggih seperti seri GPT hingga Gemini sedang mengubah cara kita bekerja dan hidup. Namun, kemajuan teknologi ini juga membawa potensi risiko keamanan, terutama dengan munculnya model bahasa besar yang tidak terbatas atau berniat jahat.

Kotak Pandora: Bagaimana model besar tanpa batas mengancam keamanan industri enkripsi?

LLM tanpa batas merujuk pada model bahasa yang dirancang, dimodifikasi, atau "dijailbreak" secara khusus untuk melewati mekanisme keamanan dan batasan etika yang terintegrasi dalam model mainstream. Meskipun pengembang LLM mainstream menginvestasikan banyak sumber daya untuk mencegah penyalahgunaan model, beberapa individu atau organisasi dengan niat buruk mulai mencari atau mengembangkan model yang tidak terbatas. Artikel ini akan membahas potensi ancaman dari model-model ini dalam industri enkripsi, serta tantangan keamanan terkait dan strategi penanganannya.

Cara Penyalahgunaan LLM Tanpa Batas

Kemunculan model-model jenis ini telah secara signifikan menurunkan ambang batas untuk melaksanakan serangan kompleks. Bahkan orang yang tidak memiliki keterampilan profesional pun dapat dengan mudah menghasilkan kode jahat, membuat email phishing, atau merencanakan penipuan. Penyerang hanya perlu mendapatkan bobot dan kode dari model open-source, lalu melakukan penyesuaian dengan dataset yang berisi konten jahat, untuk menciptakan alat serangan yang disesuaikan.

Tren ini membawa banyak risiko:

  1. Penyerang dapat menyesuaikan model untuk target tertentu, menghasilkan konten yang lebih menipu, dan melewati pemeriksaan konten yang biasa.
  2. Model dapat digunakan untuk cepat menghasilkan variasi kode situs phishing atau menyesuaikan teks penipuan untuk berbagai platform.
  3. Ketersediaan model sumber terbuka mendorong terbentuknya ekosistem AI bawah tanah, menyediakan lahan subur bagi kegiatan ilegal.

Berikut adalah beberapa LLM tanpa batas yang khas dan potensi ancamannya:

WormGPT: versi hitam GPT

WormGPT adalah LLM jahat yang dijual secara terbuka di forum gelap, yang mengklaim tidak memiliki batasan etika. Ini didasarkan pada model sumber terbuka seperti GPT-J 6B dan dilatih pada banyak data terkait perangkat lunak jahat. Pengguna hanya perlu membayar 189 dolar untuk mendapatkan akses selama sebulan.

Dalam bidang enkripsi, WormGPT mungkin disalahgunakan untuk:

  • Menghasilkan email phishing yang realistis untuk menggoda pengguna mengklik tautan berbahaya atau membocorkan kunci pribadi.
  • Membantu menulis kode jahat untuk mencuri file dompet, memantau clipboard, dll.
  • Menggerakkan otomatisasi penipuan, mengarahkan korban untuk berpartisipasi dalam proyek palsu.

DarkBERT: pedang bermata dua untuk konten dark web

DarkBERT adalah model bahasa yang dilatih khusus pada data dark web, awalnya digunakan untuk membantu peneliti dan lembaga penegak hukum memahami ekosistem dark web. Namun, jika disalahgunakan, informasi sensitif yang dikuasainya dapat menyebabkan konsekuensi serius.

Di bidang enkripsi, risiko potensial DarkBERT meliputi:

  • Mengumpulkan informasi pengguna dan tim proyek, melaksanakan penipuan yang tepat.
  • Menyalin metode pencurian dan pencucian uang yang matang di dark web.

FraudGPT: alat multifungsi untuk penipuan online

FraudGPT mengklaim sebagai versi upgrade dari WormGPT, yang utama dijual di dark web dan forum hacker. Cara penyalahgunaan di bidang enkripsi meliputi:

  • Menghasilkan salinan dan materi pemasaran proyek enkripsi palsu yang realistis.
  • Membuat halaman phishing tiruan dari bursa terkenal secara massal.
  • Memproduksi ulasan palsu secara besar-besaran, mempromosikan token penipuan atau menjatuhkan proyek pesaing.
  • Meniru percakapan manusia, memancing pengguna untuk mengungkapkan informasi sensitif.

GhostGPT: AI asisten yang tidak terikat oleh norma moral

GhostGPT adalah sebuah chatbot AI yang secara jelas ditujukan sebagai robot percakapan tanpa batasan moral. Dalam bidang enkripsi, ia mungkin digunakan untuk:

  • Menghasilkan email phishing yang sangat realistis, menyamar sebagai pemberitahuan palsu yang dirilis oleh bursa mainstream.
  • Menghasilkan kode kontrak pintar yang mengandung backdoor tersembunyi dengan cepat.
  • Membuat perangkat lunak berbahaya yang memiliki kemampuan untuk berubah bentuk, digunakan untuk mencuri informasi dompet.
  • Menggabungkan alat AI lainnya, menghasilkan suara palsu dari pihak proyek, melakukan penipuan melalui telepon.

Venice.ai:potensi risiko akses tanpa sensor

Venice.ai menyediakan akses ke berbagai LLM, termasuk beberapa model dengan batasan yang lebih sedikit. Meskipun tujuannya adalah untuk memberikan pengalaman AI yang terbuka kepada pengguna, hal ini juga dapat disalahgunakan untuk menghasilkan konten berbahaya. Risiko potensial termasuk:

  • Menggunakan model dengan batasan yang lebih sedikit untuk melewati sensor, menghasilkan template phishing atau ide serangan.
  • Menurunkan ambang batas untuk rekayasa pengingat yang jahat.
  • Mempercepat iterasi dan optimasi taktik serangan.

Strategi Penanganan

Menghadapi ancaman baru yang ditimbulkan oleh LLM tanpa batas, industri enkripsi perlu mengambil pendekatan multifaset:

  1. Meningkatkan investasi dalam teknologi deteksi, mengembangkan alat yang dapat mengenali dan mencegah konten jahat yang dihasilkan oleh AI.
  2. Mendorong pembangunan kemampuan model untuk mencegah jailbreak, mengeksplorasi mekanisme watermark dan pelacakan.
  3. Membangun dan menyempurnakan norma etika dan mekanisme regulasi yang dapat membatasi pengembangan dan penyalahgunaan model-model jahat dari sumbernya.
  4. Meningkatkan pendidikan pengguna, meningkatkan kemampuan untuk mengenali konten yang dihasilkan AI.
  5. Mendorong kolaborasi industri, berbagi intelijen ancaman dan praktik terbaik.

Kotak Pandora: Bagaimana model besar tanpa batas mengancam keamanan industri enkripsi?

Hanya dengan upaya kolaboratif dari semua pihak dalam ekosistem keamanan, tantangan keamanan baru ini dapat dihadapi secara efektif untuk melindungi perkembangan sehat industri enkripsi.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 8
  • Bagikan
Komentar
0/400
ContractFreelancervip
· 2jam yang lalu
Tingkat bahaya geometri
Lihat AsliBalas0
LiquidityNinjavip
· 12jam yang lalu
Juga harus memperhatikan manajemen risiko.
Lihat AsliBalas0
SelfCustodyBrovip
· 13jam yang lalu
Waspadai penipuan AI
Lihat AsliBalas0
BearMarketGardenervip
· 13jam yang lalu
dunia kripto yang penuh bencana
Lihat AsliBalas0
TxFailedvip
· 13jam yang lalu
Ancaman AI terlalu menakutkan.
Lihat AsliBalas0
AltcoinHuntervip
· 13jam yang lalu
suckers harus diasah
Lihat AsliBalas0
ClassicDumpstervip
· 13jam yang lalu
Dianggap Bodoh pemain di markas.
Lihat AsliBalas0
ColdWalletGuardianvip
· 13jam yang lalu
Ancaman serius terhadap keamanan pengguna
Lihat AsliBalas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)