
Kelemahan keamanan tingkat tinggi telah diungkapkan dalam kerangka kerja Model Model Model Bahasa Besar (LLM) Meta yang, jika berhasil dieksploitasi, dapat memungkinkan penyerang untuk menjalankan kode sewenang-wenang di server inferensi Llama-Stack.
Kerentanan, dilacak sebagai CVE-2024-50050, telah diberi skor CVSS 6,3 dari 10,0. Perusahaan keamanan rantai pasokan Snyk, di sisi lain, telah menetapkan peringkat keparahan kritis 9,3.
“Versi meta-llama yang terpengaruh rentan terhadap deserialisasi data yang tidak diakui, yang berarti bahwa penyerang dapat menjalankan kode sewenang-wenang dengan mengirimkan data berbahaya yang deserialisasi,” kata peneliti keamanan Oligo Avi Lumelsky dalam sebuah analisis awal pekan ini.
Kekurangan, per perusahaan keamanan cloud, berada dalam komponen yang disebut Llama Stack, yang mendefinisikan serangkaian antarmuka API untuk pengembangan aplikasi intelijen buatan (AI), termasuk menggunakan model LLAMA Meta sendiri.
Secara khusus, ini berkaitan dengan cacat eksekusi kode jarak jauh dalam implementasi API inferensi Python referensi, ditemukan secara otomatis deserialisasi objek Python menggunakan acar, format yang dianggap berisiko karena kemungkinan eksekusi kode sewenang -wenang ketika data yang tidak dapat dipercaya atau jahat memuat menggunakan perpustakaan.

“Dalam skenario di mana soket ZeroMQ diekspos melalui jaringan, penyerang dapat mengeksploitasi kerentanan ini dengan mengirimkan benda jahat yang dibuat ke soket,” kata Lumelsky. “Karena recv_pyobj akan melepaskan objek -objek ini, penyerang dapat mencapai eksekusi kode sewenang -wenang (RCE) pada mesin host.”
Mengikuti pengungkapan yang bertanggung jawab pada 24 September 2024, masalah ini ditangani oleh Meta pada 10 Oktober di versi 0.0.41. Ini juga telah diperbaiki di Pyzmq, perpustakaan Python yang menyediakan akses ke perpustakaan pesan ZeromQ.
Dalam penasihat yang dikeluarkan oleh Meta, perusahaan mengatakan bahwa mereka memperbaiki risiko eksekusi kode jarak jauh yang terkait dengan menggunakan acar sebagai format serialisasi untuk komunikasi soket dengan beralih ke format JSON.
Ini bukan pertama kalinya kerentanan deserialisasi seperti itu ditemukan dalam kerangka kerja AI. Pada bulan Agustus 2024, Oligo merinci “kerentanan bayangan” dalam kerangka keras Tensorflow, bypass untuk CVE-2024-3660 (skor CVSS: 9,8) yang dapat mengakibatkan eksekusi kode sewenang-wenang karena penggunaan modul marshal yang tidak aman.
Pengembangan datang ketika peneliti keamanan Benjamin Flesch mengungkapkan cacat kepemilikan tinggi pada crawler chatgpt Openai, yang dapat dipersenjatai untuk memulai serangan penolakan (DDOS) yang didistribusikan terhadap situs web sewenang-wenang.
Masalahnya adalah hasil dari penanganan yang salah atas permintaan HTTP Post ke “Chatgpt[.]com/backend-api/atribution “API, yang dirancang untuk menerima daftar URL sebagai input, tetapi tidak ada yang memeriksa apakah URL yang sama muncul beberapa kali dalam daftar atau menegakkan batasan jumlah hyperlink yang dapat dilewati sebagai input .

Ini membuka skenario di mana aktor yang buruk dapat mengirimkan ribuan hyperlink dalam satu permintaan HTTP, menyebabkan OpenAI mengirim semua permintaan tersebut ke situs korban tanpa berusaha membatasi jumlah koneksi atau mencegah mengeluarkan permintaan duplikat.
Bergantung pada jumlah hyperlink yang ditransmisikan ke OpenAi, ia memberikan faktor amplifikasi yang signifikan untuk serangan DDOS potensial, secara efektif membanjiri sumber daya situs target. Perusahaan AI sejak itu menambah masalah.
“Perayap chatgpt dapat dipicu ke DDOS situs web korban melalui permintaan HTTP ke API chatgpt yang tidak terkait,” kata Flesch. “Cacat dalam perangkat lunak OpenAI ini akan memunculkan serangan DDOS di situs web korban yang tidak curiga, memanfaatkan beberapa rentang alamat IP Microsoft Azure di mana chatgpt crawler berjalan.”
Pengungkapan ini juga mengikuti laporan dari Truffle Security bahwa asisten pengkodean bertenaga AI populer “merekomendasikan” kunci API dan kata sandi yang berkode keras, nasihat berisiko yang dapat menyesatkan programmer yang tidak berpengalaman untuk memperkenalkan kelemahan keamanan dalam proyek mereka.
“LLM membantu melanggengkannya, kemungkinan karena mereka dilatih pada semua praktik pengkodean yang tidak aman,” kata peneliti keamanan Joe Leon.
Berita kerentanan dalam kerangka kerja LLM juga mengikuti penelitian tentang bagaimana model dapat disalahgunakan untuk memberdayakan siklus hidup serangan cyber, termasuk memasang muatan pemati tahap akhir dan pengendalian perintah dan kontrol.

“Ancaman dunia maya yang ditimbulkan oleh LLMS bukanlah revolusi, tetapi evolusi,” kata peneliti Instinct Mark Vaitzman. “Tidak ada yang baru di sana, LLM hanya membuat ancaman dunia maya lebih baik, lebih cepat, dan lebih akurat dalam skala yang lebih besar. LLMS dapat berhasil diintegrasikan ke dalam setiap fase siklus hidup serangan dengan bimbingan pengemudi yang berpengalaman. Kemampuan ini cenderung tumbuh dalam otonomi seiring dengan kemajuan teknologi yang mendasarinya. “
Penelitian terbaru juga telah menunjukkan metode baru yang disebut ShadowGenes yang dapat digunakan untuk mengidentifikasi silsilah model, termasuk arsitektur, jenis, dan keluarga dengan memanfaatkan grafik komputasi. Pendekatan ini dibangun di atas teknik serangan yang sebelumnya diungkapkan yang dijuluki Shadowlogic.
“Tanda tangan yang digunakan untuk mendeteksi serangan jahat dalam grafik komputasi dapat diadaptasi untuk melacak dan mengidentifikasi pola berulang, yang disebut subgraph berulang, memungkinkan mereka untuk menentukan silsilah arsitektur model,” kata perusahaan keamanan AI Hiddaylayer dalam sebuah pernyataan yang dibagikan dengan berita peretas.
“Memahami model keluarga yang digunakan dalam organisasi Anda meningkatkan kesadaran Anda secara keseluruhan tentang infrastruktur AI Anda, memungkinkan manajemen postur keamanan yang lebih baik.”