Model bahasa pemrograman besar Claude Code milik Anthropic telah disalahgunakan oleh aktor ancaman yang menggunakannya dalam kampanye pemerasan data dan untuk mengembangkan paket ransomware.
Perusahaan tersebut menyatakan bahwa tool-nya juga telah digunakan dalam skema penipuan pekerja IT Korea Utara dan untuk mendistribusikan umpan bagi kampanye Contagious Interview, dalam kampanye APT Tiongkok, dan oleh pengembang berbahasa Rusia untuk membuat malware dengan kemampuan penghindaran tingkat lanjut.
Ransomware buatan AI
Dalam contoh lain, yang dilacak sebagai ‘GTG-5004,’ pelaku ancaman yang berbasis di Inggris menggunakan Claude Code untuk mengembangkan dan mengkomersialkan operasi ransomware-as-a-service (RaaS).
Utilitas AI membantu menciptakan semua tool yang diperlukan untuk platform RaaS, mengimplementasikan stream cipher ChaCha20 dengan manajemen kunci RSA pada ransomware modular, penghapusan shadow copy, opsi untuk penargetan file tertentu, dan kemampuan untuk mengenkripsi berbagi jaringan.
Dari sisi penghindaran, ransomware ini dimuat melalui injeksi DLL reflektif dan dilengkapi teknik pemanggilan syscall, bypass pengait API, string obfuscation, dan anti-debugging.
Anthropic mengatakan bahwa pelaku ancaman hampir sepenuhnya bergantung pada Claude untuk mengimplementasikan bagian-bagian platform RaaS yang paling membutuhkan pengetahuan, dan mencatat bahwa, tanpa bantuan AI, mereka kemungkinan besar akan gagal menghasilkan ransomware yang berfungsi.
“Temuan yang paling mencolok adalah ketergantungan aktor tersebut terhadap AI untuk mengembangkan malware yang berfungsi,” tulis laporan tersebut.
“Operator ini tampaknya tidak mampu menerapkan algoritma enkripsi, teknik anti-analisis, atau manipulasi internal Windows tanpa bantuan Claude.”
Setelah membuat operasi RaaS, pelaku ancaman menawarkan executable ransomware, kit dengan konsol PHP dan infrastruktur perintah dan kontrol (C2), serta crypter Windows seharga $400 hingga $1.200 atau sekitar Rp.6,5 juta hingga Rp.19,5 juta di forum dark web seperti Dread, CryptBB, dan Nulled.
Kampanye pemerasan yang dioperasikan AI
Dalam salah satu kasus yang dianalisis, yang dilacak Anthropic sebagai 'GTG-2002', seorang penjahat siber menggunakan Claude sebagai operator aktif untuk melakukan kampanye pemerasan data terhadap setidaknya 17 organisasi di sektor pemerintahan, layanan kesehatan, keuangan, dan layanan darurat.
Agen AI melakukan pengintaian jaringan dan membantu pelaku ancaman mendapatkan akses awal, kemudian membuat malware khusus berdasarkan tool Chisel tunnel untuk digunakan dalam eksfiltrasi data sensitif.
Setelah serangan gagal, Claude Code digunakan untuk membuat malware menyembunyikan dirinya lebih baik dengan menyediakan teknik enkripsi string, kode anti-debugging, dan penyamaran nama file.
Claude kemudian digunakan untuk menganalisis file yang dicuri untuk menetapkan permintaan tebusan, yang berkisar antara $75.000 dan $500.000 atau sekitar Rp. 1,2 miliar dan Rp. 8,1 miliar dan bahkan untuk membuat catatan tebusan HTML khusus untuk setiap korban.
“Claude tidak hanya melakukan operasi 'on-keyboard' tetapi juga menganalisis data keuangan yang dieksfiltrasi untuk menentukan jumlah tebusan yang sesuai dan menghasilkan catatan tebusan HTML yang secara visual mengkhawatirkan yang ditampilkan di mesin korban dengan menyematkannya ke dalam proses boot” - Anthropic.
Anthropic menyebut serangan ini sebagai contoh “vibe hacking,” yang mencerminkan penggunaan agen pengkodean AI sebagai mitra dalam kejahatan dunia maya, dan bukan mempekerjakan mereka di luar konteks operasi.
Laporan Anthropic menyertakan contoh tambahan di mana Claude Code digunakan secara ilegal, meskipun dalam operasi yang tidak terlalu rumit. Perusahaan mengatakan bahwa LLM-nya membantu pelaku ancaman dalam mengembangkan integrasi API tingkat lanjut dan mekanisme ketahanan untuk layanan carding.
Penjahat dunia maya lainnya memanfaatkan kekuatan AI untuk penipuan percintaan, menghasilkan balasan “kecerdasan emosional yang tinggi,” membuat gambar yang meningkatkan profil, dan mengembangkan konten manipulasi emosional untuk menargetkan korban, serta memberikan dukungan multi-bahasa untuk penargetan yang lebih luas.
Untuk setiap kasus yang disajikan, pengembang AI menyediakan taktik dan teknik yang dapat membantu peneliti lain mengungkap aktivitas kejahatan dunia maya baru atau membuat koneksi ke operasi ilegal yang diketahui.
Anthropic telah melarang semua akun yang terkait dengan operasi jahat yang dideteksinya, membuat pengklasifikasi khusus untuk mendeteksi pola penggunaan yang mencurigakan, dan membagikan indikator teknis dengan mitra eksternal untuk membantu pertahanan.