
Peneliti cybersecurity telah mengungkapkan rincian vektor serangan rantai pasokan baru yang dijuluki aturan file backdoor yang memengaruhi editor kode buatan (AI) yang ditugaskan seperti github copilot dan kursor, menyebabkan mereka menyuntikkan kode jahat.
“Teknik ini memungkinkan peretas untuk secara diam-diam mengkompromikan kode yang dihasilkan AI dengan menyuntikkan instruksi berbahaya yang tersembunyi ke dalam file konfigurasi yang tampaknya tidak bersalah yang digunakan oleh kursor dan kopilot gitub,” kata salah satu pendiri Pillar Security dan CTO ZIV Karliner dalam sebuah laporan teknis yang dibagikan dengan berita Hacker.

“Dengan mengeksploitasi karakter unicode tersembunyi dan teknik penghindaran canggih dalam model yang dihadapi muatan instruksi, aktor ancaman dapat memanipulasi AI untuk memasukkan kode berbahaya yang memotong ulasan kode khas.”
Vektor serangan terkenal karena fakta bahwa hal itu memungkinkan kode berbahaya untuk secara diam -diam merambat di seluruh proyek, menimbulkan risiko rantai pasokan.

Inti dari serangan bergantung pada file aturan yang digunakan oleh agen AI untuk memandu perilaku mereka, membantu pengguna untuk mendefinisikan praktik pengkodean terbaik dan arsitektur proyek.
Secara khusus, ini melibatkan penyematan petunjuk yang dibuat dengan hati -hati dalam file aturan yang tampaknya jinak, menyebabkan alat AI untuk menghasilkan kode yang mengandung kerentanan keamanan atau pintu belakang. Dengan kata lain, aturan beracun mendorong AI untuk menghasilkan kode jahat.
Ini dapat dicapai dengan menggunakan joiner nol-lebar, penanda teks dua arah, dan karakter yang tidak terlihat lainnya untuk menyembunyikan instruksi jahat dan mengeksploitasi kemampuan AI untuk menafsirkan bahasa alami untuk menghasilkan kode yang rentan melalui pola semantik yang menipu model menjadi keterbatasan etika dan keselamatan yang utama.

Mengikuti pengungkapan yang bertanggung jawab pada akhir Februari dan Maret 2024, baik Cursor dan Gihub telah menyatakan bahwa pengguna bertanggung jawab untuk meninjau dan menerima saran yang dihasilkan oleh alat.
“'Aturan File Backdoor' merupakan risiko yang signifikan dengan mempersenjatai AI itu sendiri sebagai vektor serangan, secara efektif mengubah asisten pengembang yang paling tepercaya menjadi kaki tangan yang tidak disadari, berpotensi mempengaruhi jutaan pengguna akhir melalui perangkat lunak yang dikompromikan,” kata Karliner.
“Setelah file aturan beracun dimasukkan ke dalam repositori proyek, itu mempengaruhi semua sesi generasi kode di masa depan oleh anggota tim. Selain itu, instruksi berbahaya sering bertahan dengan forking proyek, menciptakan vektor untuk serangan rantai pasokan yang dapat mempengaruhi ketergantungan hilir dan pengguna akhir.”