Model AI tanpa batas mengancam keamanan bidang enkripsi, analisis lima kasus dan strategi respons.

robot
Pembuatan abstrak sedang berlangsung

Sisi Gelap Kecerdasan Buatan: Ancaman Model Bahasa Besar Tanpa Batas

Dengan pesatnya perkembangan teknologi kecerdasan buatan, dari seri GPT hingga model canggih seperti Gemini, cara hidup kita sedang berubah secara mendalam. Namun, seiring dengan kemajuan teknologi, satu masalah yang perlu diwaspadai juga mulai muncul - kemunculan model bahasa besar yang tidak terbatas atau berbahaya dan ancaman potensialnya.

Model bahasa tanpa batas adalah sistem AI yang dirancang, dimodifikasi, atau diretas secara sengaja untuk menghindari mekanisme keamanan dan batasan etika yang tertanam dalam model utama. Pengembang AI utama biasanya menginvestasikan banyak sumber daya untuk mencegah model mereka digunakan untuk menghasilkan konten berbahaya atau memberikan instruksi ilegal. Namun, dalam beberapa tahun terakhir, beberapa individu atau organisasi dengan niat yang tidak baik mulai mencari atau mengembangkan model yang tidak terikat. Artikel ini akan membahas contoh khas dari model tanpa batas ini, potensi penyalahgunaannya di bidang kripto, serta tantangan keamanan terkait dan strategi penanggulangannya.

Kotak Pandora: Bagaimana model besar tanpa batas mengancam keamanan industri kripto?

Ancaman Model Bahasa Tanpa Batas

Kemunculan model-model ini secara signifikan menurunkan ambang teknis untuk melakukan serangan siber. Tugas-tugas yang sebelumnya membutuhkan pengetahuan khusus, seperti menulis kode jahat, membuat email phishing, merencanakan penipuan, kini dapat dilakukan dengan mudah oleh orang biasa yang bahkan tidak memiliki pengalaman pemrograman, berkat bantuan model tanpa batas. Pelaku hanya perlu mendapatkan bobot dan sumber kode model sumber terbuka, kemudian melakukan penyesuaian menggunakan dataset yang berisi konten jahat atau instruksi ilegal, untuk menciptakan alat serangan yang disesuaikan.

Tren ini membawa berbagai risiko:

  • Penyerang dapat "menyesuaikan" model untuk target tertentu, menghasilkan konten yang lebih menipu dan melewati pemeriksaan konten AI konvensional.
  • Model dapat digunakan untuk dengan cepat menghasilkan kode varian situs phishing, atau menyesuaikan naskah penipuan untuk berbagai platform.
  • Ketersediaan model sumber terbuka sedang mendorong terbentuknya ekosistem AI bawah tanah, menyediakan lahan subur untuk perdagangan dan pengembangan ilegal.

Model Bahasa Tanpa Batas yang Khas dan Ancaman yang Dihadapi

WormGPT: versi gelap GPT

WormGPT adalah model AI jahat yang dijual secara terbuka di forum bawah tanah, pengembang mengklaim bahwa model ini tidak memiliki batasan etika. Berdasarkan model sumber terbuka seperti GPT-J 6B dan dilatih pada sejumlah besar data terkait perangkat lunak jahat. Pengguna hanya perlu membayar 189 dolar untuk mendapatkan hak penggunaan selama sebulan. Penyalahgunaan tipikalnya di bidang kripto termasuk:

  • Membuat email phishing yang sangat realistis, menyamar sebagai bursa atau pihak proyek untuk mendorong pengguna mengungkapkan kunci pribadi.
  • Membantu penyerang dengan kemampuan teknis terbatas untuk menulis kode jahat yang mencuri file dompet, memantau clipboard, dll.
  • Menggerakkan penipuan otomatis, membalas secara cerdas kepada calon korban, mengarahkan untuk berpartisipasi dalam proyek palsu.

DarkBERT: Pedang bermata dua untuk konten dark web

DarkBERT dikembangkan oleh peneliti dari Korea Advanced Institute of Science and Technology, yang melakukan pra-pelatihan pada data dark web, awalnya ditujukan untuk membantu penelitian keamanan siber. Namun, jika konten sensitif yang dikuasainya disalahgunakan, dapat menyebabkan:

  • Melakukan penipuan yang tepat: Mengumpulkan informasi pengguna kripto untuk penipuan sosial.
  • Menyalin metode kejahatan: Meniru strategi pencurian koin dan pencucian uang yang matang di dark web.

FraudGPT: Alat multifungsi untuk penipuan online

FraudGPT mengklaim sebagai versi upgrade dari WormGPT, yang terutama dijual di dark web, dengan biaya bulanan berkisar antara 200 hingga 1.700 dolar. Penyalahgunaan potensialnya di bidang kripto meliputi:

  • Proyek kripto palsu: membuat buku putih, situs web, dan lainnya yang tampak realistis untuk ICO palsu.
  • Menghasilkan halaman phishing secara massal: Meniru antarmuka login bursa terkemuka dengan cepat.
  • Media sosial palsu: Memproduksi komentar palsu secara besar-besaran untuk mempromosikan token penipuan.
  • Serangan rekayasa sosial: Meniru percakapan manusia, membujuk pengguna untuk membocorkan informasi sensitif.

GhostGPT: Asisten AI tanpa batasan etika

GhostGPT secara jelas diposisikan sebagai chatbot tanpa batasan moral, ancaman potensialnya di bidang kripto termasuk:

  • Serangan phishing tingkat lanjut: menghasilkan email pemberitahuan palsu yang sangat realistis.
  • Generasi kode jahat kontrak pintar: Buat kontrak dengan pintu belakang tersembunyi dengan cepat.
  • Pencuri cryptocurrency polimorfik: menghasilkan malware deformasi yang sulit terdeteksi.
  • Serangan rekayasa sosial: menggabungkan skrip yang dihasilkan AI, menerapkan robot penipuan di platform sosial.
  • Penipuan Deepfake: Menggunakan alat AI lainnya, mensimulasikan suara pihak proyek untuk melakukan penipuan.

Venice.ai: Potensi risiko akses tanpa sensor

Venice.ai menyediakan akses ke berbagai model AI dengan batasan yang longgar, meskipun ditujukan sebagai platform eksplorasi terbuka, namun juga dapat disalahgunakan untuk:

  • Menghindari sensor untuk menghasilkan konten berbahaya: menggunakan model dengan batasan lebih sedikit untuk membuat materi serangan.
  • Menurunkan ambang batas proyek pengingat: Menyederhanakan kesulitan dalam mendapatkan output yang terbatas.
  • Iterasi skrip serangan yang dipercepat: Uji coba cepat untuk mengoptimalkan skrip penipuan.

Kesimpulan

Kemunculan model bahasa tanpa batas menandakan bahwa keamanan siber menghadapi ancaman baru yang lebih kompleks, berskala lebih besar, dan lebih otomatis. Ini tidak hanya menurunkan ambang serangan, tetapi juga membawa risiko yang lebih tersembunyi dan lebih menipu.

Menghadapi tantangan ini memerlukan upaya kolaboratif dari semua pihak dalam ekosistem keamanan: meningkatkan investasi dalam teknologi deteksi, mengembangkan sistem yang dapat mengenali konten berbahaya yang dihasilkan oleh AI; mendorong pembangunan kemampuan pencegahan jailbreak model, menjelajahi mekanisme watermark dan pelacakan; membangun norma etika dan mekanisme regulasi yang baik untuk membatasi pengembangan dan penyalahgunaan model berbahaya dari sumbernya. Hanya dengan pendekatan yang beragam, kita dapat menemukan keseimbangan antara teknologi AI dan keamanan, serta membangun masa depan digital yang lebih aman dan lebih terpercaya.

Kotak Pandora: Bagaimana model besar tanpa batas mengancam keamanan industri kripto?

GPT-13.89%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 7
  • Bagikan
Komentar
0/400
LightningClickervip
· 11jam yang lalu
Siapa yang tidak mencoba di tepi yang melesat?
Lihat AsliBalas0
AirdropATMvip
· 19jam yang lalu
Kakak Hei sangat aman Kakak Bai sangat kuat
Lihat AsliBalas0
LiquidationTherapistvip
· 19jam yang lalu
Sekali lagi mengulang nada lama.
Lihat AsliBalas0
HallucinationGrowervip
· 19jam yang lalu
Emma haha play people for suckers dianggap bodoh sampai tangan kram
Lihat AsliBalas0
MaticHoleFillervip
· 19jam yang lalu
Sungguh tidak bisa mengendalikan apapun.
Lihat AsliBalas0
SerumSquirtervip
· 19jam yang lalu
Bermain itu bermain, bercanda itu bercanda, tetapi batasan harus ada.
Lihat AsliBalas0
LiquidityWizardvip
· 19jam yang lalu
Membingungkan jebakan kulit palsu AI datang satu jebakan salin AI asli
Lihat AsliBalas0
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)