Ancaman dan Strategi Penanganan Model AI Tanpa Batas di Industri Enkripsi

robot
Pembuatan abstrak sedang berlangsung

Kotak Pandora Terbuka: Ancaman Model AI Tanpa Batas Terhadap Industri Enkripsi

Seiring dengan perkembangan pesat teknologi kecerdasan buatan, dari seri GPT hingga model canggih seperti Gemini, yang sedang mengubah cara kita bekerja dan hidup. Namun, kemajuan teknologi juga membawa risiko potensial - munculnya model bahasa besar yang tidak terbatas atau berniat jahat.

Model bahasa tanpa batas yang dimaksud adalah sistem AI yang dirancang, dimodifikasi, atau "di-jailbreak" secara sengaja untuk menghindari mekanisme keamanan dan batasan etika yang tertanam dalam model mainstream. Meskipun pengembang AI mainstream menginvestasikan banyak sumber daya untuk mencegah penyalahgunaan model, beberapa individu atau organisasi dengan tujuan ilegal mulai mencari atau mengembangkan model yang tidak terbatas. Artikel ini akan membahas contoh khas dari model AI tanpa batas ini, potensi ancamannya di industri enkripsi, serta tantangan keamanan terkait dan strategi penanggulangannya.

Pandora's Box: Bagaimana Model Besar Tanpa Batas Mengancam Keamanan Industri Enkripsi?

Ancaman Model AI Tanpa Batas

Munculnya model-model semacam ini telah secara signifikan menurunkan ambang batas untuk kejahatan siber. Tugas-tugas yang sebelumnya memerlukan keterampilan profesional, seperti menulis kode jahat, membuat email phishing, dan merencanakan penipuan, sekarang dapat dilakukan dengan bantuan AI tanpa batas, bahkan oleh orang yang tidak berpengalaman dalam teknologi. Penyerang hanya perlu mendapatkan bobot dan kode sumber model open source, lalu melakukan penyesuaian menggunakan dataset yang berisi konten berbahaya atau instruksi ilegal, untuk menciptakan alat serangan yang disesuaikan.

Model ini membawa berbagai risiko:

  1. Penyerang dapat menyesuaikan model berdasarkan tujuan tertentu, menghasilkan konten yang lebih menipu, dan melewati pemeriksaan konten AI konvensional.
  2. Model dapat digunakan untuk dengan cepat menghasilkan variasi kode situs phishing, atau menyesuaikan salinan penipuan untuk berbagai platform.
  3. Ketersediaan model sumber terbuka mendorong pembentukan ekosistem AI bawah tanah, menyediakan tempat subur untuk perdagangan dan pengembangan ilegal.

Model AI Tanpa Batas yang Khas dan Ancaman yang Dihadapi

WormGPT: versi gelap GPT

WormGPT adalah model AI jahat yang dijual secara terbuka di forum bawah tanah, mengklaim tidak memiliki batasan moral. Ini berdasarkan model sumber terbuka seperti GPT-J 6B dan dilatih pada sejumlah besar data terkait perangkat lunak jahat. Pengguna hanya perlu membayar 189 dolar untuk mendapatkan akses selama sebulan.

Dalam bidang enkripsi, WormGPT mungkin disalahgunakan untuk:

  • Menghasilkan email phishing yang sangat realistis, mengelabui pengguna untuk mengklik tautan berbahaya atau membocorkan kunci pribadi.
  • Membantu penyerang dengan tingkat keterampilan teknis yang lebih rendah untuk menulis kode jahat yang mencuri file dompet, memantau clipboard, dll.
  • Menggerakkan penipuan otomatis, membalas secara otomatis kepada calon korban, mengarahkan untuk berpartisipasi dalam proyek palsu.

DarkBERT: pedang bermata dua konten dark web

DarkBERT adalah model bahasa yang dilatih sebelumnya pada data dark web, awalnya bertujuan untuk membantu peneliti dan lembaga penegak hukum memahami ekosistem dark web. Namun, jika diperoleh atau ditiru oleh pihak yang tidak bertanggung jawab, bisa membawa risiko serius.

Potensi ancaman di bidang enkripsi meliputi:

  • Mengumpulkan informasi pengguna dan tim proyek, untuk penipuan social engineering yang lebih tepat.
  • Menyalin strategi pencurian dan pencucian uang yang matang di dark web.

FraudGPT: Alat multifungsi untuk penipuan online

FraudGPT mengklaim sebagai versi upgrade dari WormGPT, dengan fungsi yang lebih lengkap, terutama dijual di dark web. Di bidang enkripsi, mungkin disalahgunakan untuk:

  • Menghasilkan dokumen whitepaper proyek enkripsi palsu yang realistis, situs resmi, dll., untuk melaksanakan penipuan ICO.
  • Menghasilkan halaman phishing yang meniru bursa terkenal secara massal.
  • Memproduksi ulasan palsu secara besar-besaran, mempromosikan token penipuan atau mencemarkan proyek pesaing.
  • Meniru percakapan manusia, membangun kepercayaan dengan pengguna, mengarahkan untuk membocorkan informasi sensitif.

GhostGPT: asisten AI tanpa batasan moral

GhostGPT secara jelas diposisikan sebagai robot obrolan AI tanpa batasan etika. Ancaman potensial di bidang enkripsi termasuk:

  • Menghasilkan email phishing yang sangat realistis, menyamar sebagai bursa untuk mengeluarkan pengumuman palsu.
  • Cepat menghasilkan kontrak pintar yang mengandung pintu belakang tersembunyi, untuk penipuan Rug Pull.
  • Membuat malware yang memiliki kemampuan untuk terus berubah, mencuri informasi dompet.
  • Menggabungkan kata-kata yang dihasilkan oleh AI, menerapkan robot penipuan di platform sosial.
  • Menggabungkan dengan alat AI lainnya, menghasilkan suara palsu dari pihak proyek, melakukan penipuan telepon.

Venice.ai: potensi risiko akses tanpa sensor

Venice.ai menyediakan akses ke berbagai model AI dengan sedikit batasan, meskipun tujuannya adalah untuk mengeksplorasi kemampuan AI, namun juga dapat disalahgunakan. Risiko potensial termasuk:

  • Menghindari sensor untuk menghasilkan konten jahat, seperti template phishing, propaganda palsu, dll.
  • Menurunkan ambang batas untuk teknik peringatan, sehingga penyerang lebih mudah mendapatkan output yang sebelumnya dibatasi.
  • Mempercepat iterasi skrip serangan, menguji dan mengoptimalkan skrip penipuan dengan cepat.

Tindakan yang Dapat Diambil

Kemunculan model AI tanpa batas menandai paradigma baru serangan yang lebih kompleks, berskala, dan otomatis dalam keamanan siber. Ini tidak hanya menurunkan ambang serangan tetapi juga membawa ancaman baru yang lebih tersembunyi dan lebih menipu.

Untuk menghadapi tantangan ini, semua pihak dalam ekosistem keamanan perlu bekerja sama:

  1. Meningkatkan investasi dalam teknologi pengujian, mengembangkan sistem yang dapat mengenali dan mencegah konten jahat yang dihasilkan AI, kerentanan kontrak pintar, dan kode berbahaya.

  2. Mendorong pembangunan kemampuan pencegahan jailbreak pada model, menjelajahi mekanisme watermark dan pelacakan, agar dapat melacak sumber konten berbahaya dalam skenario kunci.

  3. Membangun dan memperkuat norma etika AI dan mekanisme pengawasan, untuk membatasi pengembangan dan penyalahgunaan model jahat dari sumbernya.

  4. Meningkatkan pendidikan pengguna, meningkatkan kemampuan publik untuk mengenali konten yang dihasilkan oleh AI dan kesadaran akan keamanan.

  5. Mendorong kerja sama industri, membangun mekanisme berbagi informasi, dan memberikan peringatan tepat waktu terhadap ancaman terkait AI yang baru muncul.

Menghadapi permainan serangan dan pertahanan yang terus meningkat ini, hanya dengan bekerja sama secara multi pihak dan terus berinovasi, kita dapat secara efektif menghadapi tantangan keamanan di era AI, serta memastikan perkembangan sehat industri enkripsi.

Kotak Pandora: Bagaimana Model Besar Tanpa Batas Mengancam Keamanan Industri Enkripsi?

Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Hadiah
  • 4
  • Bagikan
Komentar
0/400
LiquidationWizardvip
· 07-11 03:13
Disarankan agar Node melakukan pemeriksaan manual, jangan terlalu percaya pada ai!
Lihat AsliBalas0
GasFeeCryervip
· 07-11 03:07
Takut dicuri, Penimbunan Koin tidak masalah.
Lihat AsliBalas0
LayerZeroHerovip
· 07-11 03:04
Ada risiko baru ada keuntungan!
Lihat AsliBalas0
SchrodingerPrivateKeyvip
· 07-11 02:44
Hanya dengan uang, uang dapat menghasilkan lebih banyak uang!
Lihat AsliBalas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)