
Rincian telah muncul tentang kelemahan keamanan yang kini telah ditambal pada chatbot kecerdasan buatan (AI) DeepSeek yang, jika berhasil dieksploitasi, dapat mengizinkan pelaku jahat untuk mengambil kendali akun korban melalui serangan injeksi yang cepat.
Peneliti keamanan Johann Rehberger, yang telah mencatat banyak serangan injeksi cepat yang menargetkan berbagai alat AI, menemukan bahwa memberikan masukan “Cetak lembar contekan xss dalam daftar poin. hanya muatan” dalam obrolan DeepSeek memicu eksekusi kode JavaScript sebagai bagian dari respons yang dihasilkan – kasus klasik pembuatan skrip lintas situs (XSS).
Serangan XSS dapat menimbulkan konsekuensi serius karena menyebabkan eksekusi kode tidak sah dalam konteks browser web korban.
Penyerang dapat memanfaatkan kelemahan tersebut untuk membajak sesi pengguna dan mendapatkan akses ke cookie dan data lain yang terkait dengan obrolan.deepseek[.]domain com, sehingga menyebabkan pengambilalihan akun.

“Setelah beberapa percobaan, saya menemukan bahwa semua yang diperlukan untuk mengambil alih sesi pengguna hanyalah userToken yang disimpan di localStorage pada domain chat.deepseek.com,” kata Rehberger, menambahkan prompt yang dibuat khusus dapat digunakan untuk memicu XSS dan mengakses userToken pengguna yang disusupi melalui injeksi cepat.
Prompt berisi campuran instruksi dan string berkode Bas64 yang didekodekan oleh chatbot DeepSeek untuk mengeksekusi payload XSS yang bertanggung jawab mengekstraksi token sesi korban, yang pada akhirnya memungkinkan penyerang untuk menyamar sebagai pengguna.
Perkembangan ini terjadi ketika Rehberger juga menunjukkan bahwa Penggunaan Komputer Claude Anthropic – yang memungkinkan pengembang menggunakan model bahasa untuk mengendalikan komputer melalui pergerakan kursor, klik tombol, dan pengetikan teks – dapat disalahgunakan untuk menjalankan perintah jahat secara mandiri melalui injeksi cepat.
Teknik ini, yang dijuluki ZombAI, pada dasarnya memanfaatkan injeksi cepat untuk mempersenjatai Penggunaan Komputer untuk mengunduh kerangka perintah dan kontrol (C2) Sliver, menjalankannya, dan menjalin kontak dengan server jarak jauh di bawah kendali penyerang.
Selain itu, ditemukan bahwa kemampuan model bahasa besar (LLM) dapat digunakan untuk mengeluarkan kode escape ANSI untuk membajak terminal sistem melalui injeksi cepat. Serangan tersebut, yang terutama menargetkan alat antarmuka baris perintah (CLI) terintegrasi LLM, diberi nama sandi Terminal DiLLMa.

“Fitur-fitur berusia satu dekade memberikan permukaan serangan yang tidak terduga pada aplikasi GenAI,” kata Rehberger. “Penting bagi pengembang dan perancang aplikasi untuk mempertimbangkan konteks di mana mereka memasukkan keluaran LLM, karena keluaran tersebut tidak dapat dipercaya dan dapat berisi data yang berubah-ubah.”
Bukan itu saja. Penelitian baru yang dilakukan oleh para akademisi dari Universitas Wisconsin-Madison dan Universitas Washington di St. Louis telah mengungkapkan bahwa ChatGPT OpenAI dapat diakali untuk menampilkan tautan gambar eksternal yang disediakan dengan format penurunan harga, termasuk yang mungkin eksplisit dan berisi kekerasan, dengan dalih sebuah tujuan yang menyeluruh dan ramah.
Terlebih lagi, telah ditemukan bahwa injeksi cepat dapat digunakan untuk secara tidak langsung memanggil plugin ChatGPT yang memerlukan konfirmasi pengguna, dan bahkan melewati batasan yang diberlakukan oleh OpenAI untuk mencegah rendering konten dari tautan berbahaya dari mengekstraksi riwayat obrolan pengguna ke server yang dikendalikan penyerang.