
Peneliti keamanan siber telah mengungkapkan beberapa kelemahan keamanan yang berdampak pada alat dan kerangka kerja pembelajaran mesin (ML) sumber terbuka seperti MLflow, H2O, PyTorch, dan MLeap yang dapat membuka jalan bagi eksekusi kode.
Kerentanan yang ditemukan oleh JFrog merupakan bagian dari 22 kelemahan keamanan yang pertama kali diungkapkan oleh perusahaan keamanan rantai pasokan bulan lalu.
Berbeda dengan rangkaian pertama yang melibatkan kelemahan di sisi server, rangkaian baru yang dirinci memungkinkan eksploitasi klien ML dan berada di pustaka yang menangani format model aman seperti Safetensor.

“Membajak klien ML dalam suatu organisasi dapat memungkinkan penyerang melakukan pergerakan lateral yang luas dalam organisasi,” kata perusahaan tersebut. “Klien ML kemungkinan besar memiliki akses ke layanan ML penting seperti ML Model Registries atau MLOps Pipelines.”
Hal ini, pada gilirannya, dapat mengekspos informasi sensitif seperti kredensial registri model, yang secara efektif memungkinkan aktor jahat melakukan backdoor pada model ML yang disimpan atau mencapai eksekusi kode.

Daftar kerentanan ada di bawah –
- CVE-2024-27132 (Skor CVSS: 7.2) – Masalah sanitasi yang tidak memadai di MLflow yang menyebabkan serangan skrip lintas situs (XSS) saat menjalankan resep yang tidak tepercaya di Notebook Jupyter, yang pada akhirnya mengakibatkan eksekusi kode jarak jauh (RCE) sisi klien
- CVE-2024-6960 (Skor CVSS: 7.5) – Masalah deserialisasi yang tidak aman di H20 saat mengimpor model ML yang tidak tepercaya, yang berpotensi mengakibatkan RCE
- Masalah penjelajahan jalur dalam fitur TorchScript PyTorch yang dapat mengakibatkan penolakan layanan (DoS) atau eksekusi kode karena penimpaan file sewenang-wenang, yang kemudian dapat digunakan untuk menimpa file sistem penting atau file acar yang sah (Tidak ada pengidentifikasi CVE)
- CVE-2023-5245 (Skor CVSS: 7.5) – Masalah penjelajahan jalur di MLeap saat memuat model tersimpan dalam format zip dapat menyebabkan kerentanan Zip Slip, mengakibatkan penimpaan file secara sewenang-wenang dan potensi eksekusi kode

JFrog mencatat bahwa model ML tidak boleh dimuat secara membabi buta meskipun model tersebut dimuat dari tipe yang aman, seperti Safetensor, karena model tersebut memiliki kemampuan untuk mencapai eksekusi kode arbitrer.
“Alat AI dan Pembelajaran Mesin (ML) memiliki potensi inovasi yang sangat besar, namun juga dapat membuka pintu bagi penyerang untuk menyebabkan kerusakan luas pada organisasi mana pun,” Shachar Menashe, Wakil Presiden Riset Keamanan JFrog, mengatakan dalam sebuah pernyataan.
“Untuk melindungi dari ancaman ini, penting untuk mengetahui model mana yang Anda gunakan dan jangan pernah memuat model ML yang tidak tepercaya bahkan dari repositori ML yang 'aman'. Melakukan hal ini dapat menyebabkan eksekusi kode jarak jauh dalam beberapa skenario, sehingga menyebabkan kerugian besar bagi organisasi Anda .”