
Ketika alat AI generatif tersedia secara luas pada akhir 2022, bukan hanya teknologi yang memperhatikan. Karyawan di semua industri segera mengakui potensi AI generatif untuk meningkatkan produktivitas, merampingkan komunikasi dan mempercepat pekerjaan. Seperti banyak gelombang inovasi TI pertama yang ada di hadapannya-pembagian film, penyimpanan cloud dan platform kolaborasi-AI mendarat di perusahaan bukan melalui saluran resmi, tetapi melalui tangan karyawan yang ingin bekerja lebih pintar.
Dihadapkan dengan risiko data sensitif yang dimasukkan ke dalam antarmuka AI publik, banyak organisasi merespons dengan urgensi dan kekuatan: mereka memblokir akses. Meskipun dapat dimengerti sebagai tindakan defensif awal, menghalangi aplikasi AI publik bukanlah strategi jangka panjang-itu adalah penghentian. Dan dalam kebanyakan kasus, itu bahkan tidak efektif.
Bayangan AI: Risiko yang Tidak Terlihat
Tim ancaman zscaler telah melacak Lalu Lintas AI dan Pembelajaran Mesin (ML) Di seluruh perusahaan, dan angka -angka menceritakan kisah yang menarik. Pada tahun 2024 saja, Ancamanlabz menganalisis lalu lintas AI dan ML 36 kali lebih banyak daripada tahun sebelumnya, mengidentifikasi lebih dari 800 aplikasi AI berbeda yang digunakan.
Pemblokiran tidak menghentikan karyawan menggunakan AI. Mereka mengirim email file ke akun pribadi, menggunakan ponsel atau perangkat rumah mereka, dan menangkap tangkapan layar untuk dimasukkan ke dalam sistem AI. Penanganan solusi ini memindahkan interaksi yang sensitif ke dalam bayang -bayang, tidak terlihat dari pemantauan dan perlindungan perusahaan. Hasilnya? Titik buta yang tumbuh dikenal sebagai Shadow AI.
Memblokir aplikasi AI yang tidak disetujui dapat membuat penggunaan tampaknya turun ke nol pada pelaporan dasbor, tetapi pada kenyataannya, organisasi Anda tidak dilindungi; Itu hanya buta terhadap apa yang sebenarnya terjadi.
Pelajaran dari adopsi SaaS
Kami pernah ke sini sebelumnya. Ketika perangkat lunak awal sebagai alat layanan muncul, timnya bergegas untuk mengontrol penggunaan aplikasi penyimpanan file berbasis cloud yang tidak disetujui. Jawabannya bukan untuk melarang berbagi file; Sebaliknya, itu untuk menawarkan alternatif yang aman, mulus, dan tunggal yang cocok dengan ekspektasi karyawan untuk kenyamanan, kegunaan, dan kecepatan.
Namun, kali ini di sekitar taruhannya bahkan lebih tinggi. Dengan SaaS, kebocoran data sering kali berarti file yang salah tempat. Dengan AI, itu bisa berarti secara tidak sengaja melatih model publik tentang kekayaan intelektual Anda tanpa cara untuk menghapus atau mengambil data itu begitu hilang. Tidak ada tombol “undo” pada memori model bahasa besar.
Visibilitas pertama, lalu kebijakan
Sebelum suatu organisasi dapat mengatur penggunaan AI secara cerdas, ia perlu memahami apa yang sebenarnya terjadi. Memblokir lalu lintas tanpa visibilitas seperti membangun pagar tanpa mengetahui di mana jalur properti berada.
Kami telah menyelesaikan masalah seperti ini sebelumnya. Posisi Zscaler dalam arus lalu lintas memberi kita titik pandang yang tak tertandingi. Kami melihat aplikasi apa yang diakses, oleh siapa dan seberapa sering. Visibilitas real-time ini sangat penting untuk menilai risiko, membentuk kebijakan dan memungkinkan adopsi AI yang lebih cerdas dan lebih aman.
Selanjutnya, kami telah mengembangkan bagaimana kami menangani kebijakan. Banyak penyedia hanya akan memberikan opsi hitam-putih dari “Izinkan” atau “blok.” Pendekatan yang lebih baik adalah tata kelola yang disadari oleh konteks, yang digerakkan oleh kebijakan yang selaras dengan prinsip-prinsip nol-peraturan yang mengasumsikan tidak ada kepercayaan implisit dan menuntut evaluasi kontekstual yang berkelanjutan. Tidak setiap penggunaan AI menghadirkan tingkat risiko dan kebijakan yang sama harus mencerminkan hal itu.
Misalnya, kami dapat menyediakan akses ke aplikasi AI dengan hati-hati untuk pengguna atau mengizinkan transaksi hanya dalam mode isolasi browser, yang berarti pengguna tidak dapat menempelkan data yang berpotensi sensitif ke dalam aplikasi. Pendekatan lain yang bekerja dengan baik adalah mengarahkan pengguna ke aplikasi alternatif yang disetujui perusahaan yang dikelola di tempat. Ini memungkinkan karyawan menuai manfaat produktivitas tanpa mengambil risiko paparan data. Jika pengguna Anda memiliki cara yang aman, cepat, dan sanksi untuk menggunakan AI, mereka tidak perlu berkeliling Anda.
Terakhir, alat perlindungan data ZScaler berarti kami dapat mengizinkan karyawan untuk menggunakan aplikasi AI publik tertentu, tetapi mencegah mereka dari secara tidak sengaja mengirimkan informasi sensitif. Penelitian kami menunjukkan lebih dari 4 juta data pencegahan kehilangan data (DLP) di cloud Zscaler, mewakili contoh di mana data perusahaan yang sensitif – seperti data keuangan, informasi yang dapat diidentifikasi secara pribadi, kode sumber, dan data medis – dimaksudkan untuk dikirim ke aplikasi AI, dan transaksi itu diblokir oleh kebijakan Zscaler. Kehilangan data nyata akan terjadi di aplikasi AI ini tanpa penegakan DLP ZScaler.
Menyeimbangkan pemberdayaan dengan perlindungan
Ini bukan tentang menghentikan adopsi AI – ini tentang membentuknya secara bertanggung jawab. Keamanan dan produktivitas tidak harus berselisih. Dengan alat dan pola pikir yang tepat, organisasi dapat mencapai keduanya: memberdayakan pengguna dan melindungi data.
Pelajari lebih lanjut di zscaler.com/security