
Taiwan telah menjadi negara terbaru yang melarang lembaga pemerintah menggunakan platform buatan (AI) startup China Startup Deepseek, mengutip risiko keamanan.
“Lembaga pemerintah dan infrastruktur kritis tidak boleh menggunakan Deepseek, karena membahayakan keamanan informasi nasional,” menurut sebuah pernyataan yang dikeluarkan oleh Kementerian Digital Urusan Digital Taiwan, per Radio Free Asia.
“Deepseek AI Service adalah produk Cina. Operasinya melibatkan transmisi lintas batas, dan kebocoran informasi dan masalah keamanan informasi lainnya.”
Asal usul Cina Deepseek telah mendorong pihak berwenang dari berbagai negara untuk melihat penggunaan data pribadi layanan. Pekan lalu, itu diblokir di Italia, mengutip kurangnya informasi mengenai praktik penanganan datanya. Beberapa perusahaan juga melarang akses ke chatbot karena risiko yang sama.
Chatbot telah menarik banyak perhatian utama selama beberapa minggu terakhir karena fakta bahwa itu adalah open source dan sama mampu seperti model terkemuka lainnya, tetapi dibangun di sebagian kecil dari biaya rekan -rekannya.

Tetapi model bahasa besar (LLM) yang mendukung platform ini juga ditemukan rentan terhadap berbagai teknik jailbreak, kekhawatiran yang terus -menerus dalam produk -produk tersebut, belum lagi menarik perhatian untuk menyensor tanggapan terhadap topik yang dianggap sensitif oleh pemerintah Cina.
Popularitas Deepseek juga membuatnya ditargetkan oleh “serangan jahat skala besar,” dengan NSFocus mengungkapkan bahwa ia mendeteksi tiga gelombang serangan penolakan yang didistribusikan (DDOS) yang ditujukan untuk antarmuka API antara 25 dan 27 Januari, 2025.
“Durasi serangan rata -rata adalah 35 menit,” katanya. “Metode serangan terutama termasuk serangan refleksi NTP dan serangan refleksi memcached.”
Lebih lanjut mengatakan bahwa sistem chatbot Deepseek ditargetkan dua kali oleh serangan DDOS pada 20 Januari, hari di mana ia meluncurkan model penalaran Deepseek-R1, dan 25 rata-rata sekitar satu jam menggunakan metode seperti serangan refleksi NTP dan serangan refleksi SSDP.
Kegiatan yang berkelanjutan terutama berasal dari Amerika Serikat, Inggris, dan Australia, perusahaan intelijen ancaman menambahkan, menggambarkannya sebagai “serangan yang terencana dan terorganisir.”
Aktor jahat juga memanfaatkan buzz di sekitar Deepseek untuk menerbitkan paket palsu pada repositori Python Package Index (PYPI) yang dirancang untuk mencuri informasi sensitif dari sistem pengembang. Dalam sentuhan ironis, ada indikasi bahwa skrip Python ditulis dengan bantuan asisten AI.
Paket -paket itu, bernama Deepseeek dan Deepseekai, disamerade sebagai klien API Python untuk Deepseek dan diunduh setidaknya 222 kali sebelum mereka diturunkan pada tanggal 29 Januari 2025. Sebagian besar unduhan datang dari AS, Cina, Rusia, Hong Kong, dan Jerman.
“Fungsi yang digunakan dalam paket ini dirancang untuk mengumpulkan data pengguna dan komputer dan mencuri variabel lingkungan,” kata perusahaan cybersecurity Rusia, Teknologi Positive Technologies. “Penulis dari dua paket menggunakan Pipedream, platform integrasi untuk pengembang, sebagai server perintah-dan-kontrol yang menerima data curian.”
Perkembangan datang ketika Undang-Undang Kecerdasan Buatan mulai berlaku di Uni Eropa mulai 2 Februari 2025, melarang aplikasi dan sistem AI yang menimbulkan risiko yang tidak dapat diterima dan menundukkan aplikasi berisiko tinggi untuk persyaratan hukum tertentu.
Dalam langkah terkait, pemerintah Inggris telah mengumumkan kode praktik AI baru yang bertujuan untuk mengamankan sistem AI dari peretasan dan sabotase melalui metode yang mencakup risiko keamanan dari keracunan data, pengayaan model, dan injeksi cepat yang tidak langsung, serta memastikan mereka dikembangkan dengan cara yang aman.
Meta, pada bagiannya, telah menguraikan kerangka AI perbatasannya, mencatat bahwa ia akan menghentikan pengembangan model AI yang dinilai telah mencapai ambang risiko kritis dan tidak dapat dikurangi. Beberapa skenario terkait cybersecurity yang disorot termasuk –
- Kompromi end-to-end otomatis dari lingkungan skala korporat yang dilindungi dengan praktik terbaik (misalnya, sepenuhnya ditambal, dilindungi MFA)
- Penemuan otomatis dan eksploitasi yang andal dari kerentanan nol kritis dalam perangkat lunak yang populer saat ini, praktik-terbaik sebelum pembela dapat menemukan dan menambal mereka
- Aliran penipuan ujung ke ujung otomatis (misalnya, romance memancing alias daging babi) yang dapat mengakibatkan kerusakan ekonomi yang meluas pada individu atau perusahaan

Risiko bahwa sistem AI dapat dipersenjatai untuk tujuan jahat bukanlah teoretis. Pekan lalu, Google's Ancaman Intelijen (GTIG) mengungkapkan bahwa lebih dari 57 aktor ancaman berbeda yang terkait dengan Cina, Iran, Korea Utara, dan Rusia telah berusaha menggunakan Gemini untuk memungkinkan dan mengukur operasi mereka.
Aktor -aktor ancaman juga telah diamati mencoba melakukan jailbreak model AI dalam upaya untuk memotong keselamatan dan kontrol etika mereka. Semacam serangan permusuhan, itu dirancang untuk menginduksi model untuk menghasilkan output yang telah dilatih secara eksplisit untuk tidak, seperti membuat malware atau mengeja instruksi untuk membuat bom.
Kekhawatiran yang sedang berlangsung yang ditimbulkan oleh serangan jailbreak telah menyebabkan perusahaan AI Anthropic untuk menyusun garis pertahanan baru yang disebut pengklasifikasi konstitusional yang katanya dapat melindungi model terhadap jailbreak universal.
“Pengklasifikasi konstitusional ini adalah pengklasifikasi input dan output yang dilatih pada data yang dihasilkan secara sintetis yang menyaring mayoritas jailbreak dengan refus minimal dan tanpa menimbulkan overhead komputasi besar,” kata perusahaan itu Senin.