
Apple telah menyediakan secara publik Lingkungan Penelitian Virtual (VRE) Private Cloud Compute (PCC), yang memungkinkan komunitas riset untuk memeriksa dan memverifikasi jaminan privasi dan keamanan dari penawarannya.
PCC, yang diluncurkan Apple pada awal bulan Juni ini, telah dipasarkan sebagai “arsitektur keamanan paling canggih yang pernah diterapkan untuk komputasi cloud AI dalam skala besar.” Dengan teknologi baru ini, idenya adalah untuk memindahkan permintaan Apple Intelligence yang rumit secara komputasi ke cloud dengan cara yang tidak mengorbankan privasi pengguna.
Apple mengatakan pihaknya mengundang “semua peneliti keamanan dan privasi – atau siapa pun yang memiliki minat dan keingintahuan teknis – untuk mempelajari lebih lanjut tentang PCC dan melakukan verifikasi independen terhadap klaim kami.”
Untuk lebih mendorong penelitian, pembuat iPhone mengatakan pihaknya memperluas program Apple Security Bounty untuk menyertakan PCC dengan menawarkan pembayaran uang mulai dari $50.000 hingga $1.000.000 untuk kerentanan keamanan yang teridentifikasi di dalamnya.

Hal ini mencakup kelemahan yang memungkinkan eksekusi kode berbahaya di server, dan eksploitasi yang mampu mengekstrak data sensitif pengguna, atau informasi tentang permintaan pengguna.
VRE bertujuan untuk menawarkan serangkaian alat untuk membantu peneliti melakukan analisis PCC dari Mac. Ia hadir dengan Secure Enclave Processor (SEP) virtual dan memanfaatkan dukungan macOS bawaan untuk grafik paravirtualisasi guna mengaktifkan inferensi.
Apple juga mengatakan pihaknya membuat kode sumber yang terkait dengan beberapa komponen PCC dapat diakses melalui GitHub untuk memfasilitasi analisis lebih dalam. Ini termasuk CloudAttestation, Thimble, splunkloggingd, dan srd_tools.
“Kami merancang Private Cloud Compute sebagai bagian dari Apple Intelligence untuk mengambil langkah maju yang luar biasa dalam bidang privasi dalam AI,” kata perusahaan yang berbasis di Cupertino tersebut. “Hal ini termasuk memberikan transparansi yang dapat diverifikasi – sebuah properti unik yang membedakannya dari pendekatan AI berbasis server lainnya.”
Perkembangan ini terjadi ketika penelitian yang lebih luas mengenai kecerdasan buatan generatif (AI) terus mengungkap cara-cara baru untuk melakukan jailbreak pada model bahasa besar (LLM) dan menghasilkan keluaran yang tidak diinginkan.

Awal pekan ini, Palo Alto Networks memerinci teknik yang disebut Deceptive Delight yang melibatkan pencampuran kueri berbahaya dan tidak berbahaya untuk mengelabui chatbot AI agar melewati pagar pembatas mereka dengan memanfaatkan “rentang perhatian” mereka yang terbatas.
Serangan tersebut membutuhkan minimal dua interaksi, dan bekerja dengan terlebih dahulu meminta chatbot untuk menghubungkan beberapa peristiwa secara logis – termasuk topik yang dibatasi (misalnya, cara membuat bom) – dan kemudian memintanya untuk menguraikan detail setiap peristiwa.
Para peneliti juga telah mendemonstrasikan apa yang disebut serangan ConfusedPilot, yang menargetkan sistem AI berbasis Retrieval-Augmented Generation (RAG) seperti Microsoft 365 Copilot dengan meracuni lingkungan data dengan dokumen yang tampaknya tidak berbahaya yang berisi string yang dibuat secara khusus.
“Serangan ini memungkinkan manipulasi respons AI hanya dengan menambahkan konten berbahaya ke dokumen apa pun yang mungkin dirujuk oleh sistem AI, sehingga berpotensi menyebabkan misinformasi yang meluas dan mengganggu proses pengambilan keputusan dalam organisasi,” kata Symmetry Systems.

Secara terpisah, ditemukan bahwa ada kemungkinan untuk mengutak-atik grafik komputasi model pembelajaran mesin untuk menanam pintu belakang “tanpa kode, diam-diam” dalam model yang telah dilatih sebelumnya seperti ResNet, YOLO, dan Phi-3, sebuah teknik dengan nama sandi ShadowLogic.
“Pintu belakang yang dibuat menggunakan teknik ini akan bertahan melalui penyempurnaan, yang berarti model dasar dapat dibajak untuk memicu perilaku yang ditentukan penyerang dalam aplikasi hilir mana pun ketika masukan pemicu diterima, menjadikan teknik serangan ini sebagai risiko rantai pasokan AI yang berdampak tinggi,” Kata peneliti Lapisan Tersembunyi Eoin Wickens, Kasimir Schulz, dan Tom Bonner.
“Tidak seperti pintu belakang perangkat lunak standar yang mengandalkan eksekusi kode berbahaya, pintu belakang ini tertanam dalam struktur model, menjadikannya lebih sulit untuk dideteksi dan dimitigasi.”