GenAI telah menjadi alat yang sangat penting bagi karyawan, karena peningkatan produktivitas dan kemampuan inovatif yang ditawarkannya. Pengembang menggunakannya untuk menulis kode, tim keuangan menggunakannya untuk menganalisis laporan, dan tim penjualan membuat email dan aset pelanggan. Namun, kemampuan-kemampuan inilah yang justru menimbulkan risiko keamanan yang serius.
Daftar ke webinar kami yang akan datang untuk mempelajari cara mencegah kebocoran data GenAI
Saat karyawan memasukkan data ke dalam perangkat GenAI seperti ChatGPT, mereka sering kali tidak membedakan antara data sensitif dan tidak sensitif. Penelitian oleh LayerX menunjukkan bahwa satu dari tiga karyawan yang menggunakan perangkat GenAI juga membagikan informasi sensitif. Ini dapat mencakup kode sumber, angka keuangan internal, rencana bisnis, IP, PII, data pelanggan, dan banyak lagi.
Tim keamanan telah berupaya mengatasi risiko pencurian data ini sejak ChatGPT tiba-tiba memasuki kehidupan kita pada November 2022. Namun, sejauh ini pendekatan yang umum adalah “izinkan semua” atau “blokir semua”, yaitu mengizinkan penggunaan GenAI tanpa pembatas keamanan apa pun, atau memblokir penggunaannya sama sekali.
Pendekatan ini sangat tidak efektif karena membuka gerbang risiko tanpa ada upaya untuk mengamankan data perusahaan, atau mengutamakan keamanan daripada keuntungan bisnis, sehingga perusahaan kehilangan keuntungan produktivitas. Dalam jangka panjang, hal ini dapat menyebabkan Shadow GenAI, atau — lebih buruk lagi — menyebabkan bisnis kehilangan keunggulan kompetitifnya di pasar.
Dapatkah organisasi melindungi diri dari kebocoran data sambil tetap memanfaatkan manfaat GenAI?
Jawabannya, seperti biasa, melibatkan pengetahuan dan alat.
Langkah pertama adalah memahami dan memetakan data mana yang memerlukan perlindungan. Tidak semua data harus dibagikan—rencana bisnis dan kode sumber, tentu saja. Namun, informasi yang tersedia untuk umum di situs web Anda dapat dimasukkan dengan aman ke ChatGPT.
Langkah kedua adalah menentukan tingkat pembatasan yang ingin Anda terapkan pada karyawan saat mereka mencoba menempelkan data sensitif tersebut. Ini dapat mencakup pemblokiran penuh atau sekadar memperingatkan mereka sebelumnya. Peringatan berguna karena membantu melatih karyawan tentang pentingnya risiko data dan mendorong otonomi, sehingga karyawan dapat membuat keputusan sendiri berdasarkan keseimbangan jenis data yang mereka masukkan dan kebutuhan mereka.
Kini saatnya untuk teknologi. Alat GenAI DLP dapat menerapkan kebijakan ini —menganalisis tindakan karyawan secara terperinci dalam aplikasi GenAI dan memblokir atau memberi peringatan saat karyawan mencoba menempelkan data sensitif ke dalamnya. Solusi semacam itu juga dapat menonaktifkan ekstensi GenAI dan menerapkan kebijakan yang berbeda untuk pengguna yang berbeda.
Dalam webinar baru oleh para ahli LayerX, mereka membahas risiko data GenAI dan memberikan praktik terbaik serta langkah-langkah praktis untuk mengamankan perusahaan. CISO, profesional keamanan, kantor kepatuhan – Daftar di sini.