
Pengawas Perlindungan Data Italia telah memblokir layanan perusahaan Inteligensi Buatan Tiongkok (AI) Deepseek di dalam negeri, mengutip kurangnya informasi tentang penggunaan data pribadi pengguna.
Pengembangan datang beberapa hari setelah Otoritas, Garante, mengirim serangkaian pertanyaan ke Deepseek, menanyakan tentang praktik penanganan datanya dan di mana ia memperoleh data pelatihannya.
Secara khusus, ia ingin mengetahui data pribadi apa yang dikumpulkan oleh platform web dan aplikasi selulernya, dari sumber mana, untuk tujuan apa, berdasarkan apa basis hukum, dan apakah itu disimpan di Cina.
Dalam sebuah pernyataan yang dikeluarkan 30 Januari 2025, Garante mengatakan itu sampai pada keputusan setelah Deepseek memberikan informasi yang dikatakan “sama sekali tidak mencukupi.”
Entitas di balik layanan ini, Hangzhou Deepseek Kecerdasan Buatan, dan Kecerdasan Buatan Beijing Deepseek, telah “menyatakan bahwa mereka tidak beroperasi di Italia dan bahwa undang -undang Eropa tidak berlaku untuk mereka,” tambahnya.
Akibatnya, pengawas mengatakan itu menghalangi akses ke Deepseek dengan efek langsung, dan secara bersamaan membuka penyelidikan.

Pada tahun 2023, Otoritas Perlindungan Data juga mengeluarkan larangan sementara di Openai's ChatGPT, sebuah pembatasan yang diangkat pada akhir April setelah perusahaan intelijen buatan (AI) masuk untuk mengatasi masalah privasi data yang diangkat. Selanjutnya, Openai didenda € 15 juta karena bagaimana menangani data pribadi.
Berita tentang larangan Deepseek datang karena perusahaan telah mengendarai gelombang popularitas minggu ini, dengan jutaan orang berbondong -bondong ke layanan dan mengirim aplikasi selulernya ke puncak tangga lagu unduhan.
Selain menjadi target “serangan jahat berskala besar,” ia telah menarik perhatian anggota parlemen dan pengunjung tetap karena kebijakan privasinya, penyensoran yang selaras dengan China, propaganda, dan masalah keamanan nasional yang mungkin ditimbulkannya. Perusahaan telah menerapkan perbaikan pada 31 Januari untuk mengatasi serangan terhadap layanannya.
Menambah tantangan, model bahasa besar Deepseek (LLM) telah ditemukan rentan terhadap teknik jailbreak seperti crescendo, juri likert yang buruk, kegembiraan menipu, melakukan apa saja sekarang (Dan), dan Evilbot, sehingga memungkinkan aktor jahat untuk menghasilkan jahat atau dilarang (Dan), dan Evilbot, sehingga memungkinkan aktor jahat untuk menghasilkan jahat atau dilarang dilarang atau dilarang dilarang atau dilarang dilarang atau dilarang dilarang atau dilarang dilarang atau dilarang atau dilarang isi.
“Mereka menimbulkan serangkaian output berbahaya, dari instruksi terperinci untuk membuat barang -barang berbahaya seperti koktail Molotov hingga menghasilkan kode jahat untuk serangan seperti SQL Injection dan Lateral Movement,” kata Palo Alto Networks Unit 42 dalam laporan Kamis.
“Sementara respons awal Deepseek sering muncul jinak, dalam banyak kasus, dorongan tindak lanjut yang dibuat dengan cermat sering kali mengungkapkan kelemahan dari perlindungan awal ini. LLM siap memberikan instruksi berbahaya yang sangat rinci, menunjukkan potensi model yang tampaknya tidak berbahaya ini untuk dipersenjatai karena jahat tujuan. “

Evaluasi lebih lanjut dari model penalaran Deepseek, Deepseek-R1, oleh perusahaan keamanan AI HiddenLayer, telah mengungkap bahwa itu tidak hanya rentan terhadap suntikan tetapi juga bahwa penalaran rantai (COT) dapat menyebabkan kebocoran informasi yang tidak disengaja.
Dalam twist yang menarik, perusahaan mengatakan model itu juga “muncul beberapa contoh yang menunjukkan bahwa data OpenAI dimasukkan, meningkatkan kekhawatiran etis dan hukum tentang sumber data dan orisinalitas model.”
Pengungkapan ini juga mengikuti penemuan kerentanan jailbreak di Openai Chatgpt-4o dijuluki Bandit Time yang memungkinkan penyerang untuk menyiasati pagar pengaman LLM dengan mendorong chatbot dengan pertanyaan dengan cara yang membuatnya kehilangan kesadaran temporal-nya dengan memicu chatbot dengan pertanyaan dengan cara yang kehilangan kesadaran temporalnya dengan temporal . Openai sejak itu mengurangi masalah.
“Seorang penyerang dapat mengeksploitasi kerentanan dengan memulai sesi dengan chatgpt dan mendorongnya secara langsung tentang peristiwa historis tertentu, periode waktu historis, atau dengan menginstruksikannya untuk berpura -pura membantu pengguna dalam acara historis tertentu,” Pusat Koordinasi CERT ( Cert/CC) berkata.

“Setelah ini telah ditetapkan, pengguna dapat memutar tanggapan yang diterima untuk berbagai topik ilegal melalui permintaan berikutnya.”
Kelemahan jailbreak yang serupa juga telah diidentifikasi dalam model Qwen 2.5-VL Alibaba dan asisten pengkodean kopilot GitHub, yang terakhir di mana aktor ancaman memberikan kemampuan untuk menghindari pembatasan keamanan dan menghasilkan kode berbahaya hanya dengan memasukkan kata-kata seperti “yakin” dalam prompt.
“Memulai kueri dengan kata-kata afirmatif seperti 'pasti' atau bentuk konfirmasi lainnya bertindak sebagai pemicu, menggeser kopilot ke mode yang lebih patuh dan rawan risiko,” kata peneliti Apex Oren Saban. “Tweak kecil ini adalah semua yang diperlukan untuk membuka respons yang berkisar dari saran tidak etis hingga nasihat berbahaya yang langsung.”
Apex mengatakan juga menemukan kerentanan lain dalam konfigurasi proxy Copilot yang dikatakan dapat dieksploitasi untuk sepenuhnya menghindari batasan akses tanpa membayar penggunaan dan bahkan merusak prompt sistem copilot, yang berfungsi sebagai instruksi dasar yang menentukan perilaku model.
Serangan itu, bagaimanapun, bergantung pada menangkap token otentikasi yang terkait dengan lisensi kopilot aktif, mendorong GitHub untuk mengklasifikasikannya sebagai masalah penyalahgunaan setelah pengungkapan yang bertanggung jawab.
“Bypass proxy dan jailbreak penegasan positif di gitub kopilot adalah contoh sempurna tentang bagaimana bahkan alat AI yang paling kuat dapat disalahgunakan tanpa perlindungan yang memadai,” tambah Saban.