Sejak kemunculannya, AI Generatif telah merevolusi produktivitas perusahaan. Alat GenAI memungkinkan pengembangan perangkat lunak, analisis keuangan, perencanaan bisnis, dan keterlibatan pelanggan lebih cepat dan efektif. Namun, ketangkasan bisnis ini memiliki risiko yang signifikan, terutama potensi kebocoran data sensitif. Ketika organisasi berupaya menyeimbangkan peningkatan produktivitas dengan masalah keamanan, banyak yang terpaksa memilih antara penggunaan GenAI yang tidak dibatasi atau melarangnya sama sekali.
Panduan elektronik baru dari LayerX berjudul 5 Tindakan yang Dapat Ditindaklanjuti untuk Mencegah Kebocoran Data Melalui Alat AI Generatif dirancang untuk membantu organisasi mengatasi tantangan penggunaan GenAI di tempat kerja. Panduan ini menawarkan langkah-langkah praktis bagi manajer keamanan untuk melindungi data sensitif perusahaan sambil tetap memperoleh manfaat produktivitas dari alat GenAI seperti ChatGPT. Pendekatan ini dimaksudkan untuk memungkinkan perusahaan mencapai keseimbangan yang tepat antara inovasi dan keamanan.
Mengapa Khawatir Tentang ChatGPT?
Panduan elektronik ini menjawab kekhawatiran yang berkembang bahwa penggunaan GenAI yang tidak dibatasi dapat menyebabkan paparan data yang tidak disengaja. Misalnya seperti yang disoroti oleh kejadian seperti kebocoran data Samsung. Dalam kasus ini, karyawan secara tidak sengaja mengekspos kode kepemilikan saat menggunakan ChatGPT, sehingga menyebabkan larangan total terhadap alat GenAI di dalam perusahaan. Insiden seperti ini menggarisbawahi perlunya organisasi mengembangkan kebijakan dan kontrol yang kuat untuk memitigasi risiko yang terkait dengan GenAI.
Pemahaman kita mengenai risiko bukan sekedar anekdot. Menurut penelitian oleh LayerX Security:
- 15% pengguna perusahaan telah menempelkan data ke alat GenAI.
- 6% pengguna perusahaan telah menempelkannya peka data, seperti kode sumber, PII, atau informasi sensitif organisasi, ke dalam alat GenAI.
- Di antara 5% pengguna GenAI teratas yang merupakan pengguna terberat, 50% sepenuhnya dimiliki oleh R&D.
- Kode sumber adalah jenis data sensitif utama yang terekspos, terhitung 31% dari data yang terekspos
Langkah-Langkah Penting untuk Manajer Keamanan
Apa yang dapat dilakukan manajer keamanan untuk mengizinkan penggunaan GenAI tanpa membuat organisasi terkena risiko penyelundupan data? Sorotan utama dari panduan elektronik ini mencakup langkah-langkah berikut:
- Memetakan Penggunaan AI dalam Organisasi – Mulailah dengan memahami apa yang perlu Anda lindungi. Petakan siapa yang menggunakan alat GenAI, dengan cara apa, untuk tujuan apa, dan jenis data apa yang diekspos. Hal ini akan menjadi landasan strategi manajemen risiko yang efektif.
- Membatasi Akun Pribadi – Selanjutnya, manfaatkan perlindungan yang ditawarkan oleh alat GenAI. Akun GenAI Korporat menyediakan langkah-langkah keamanan bawaan yang secara signifikan dapat mengurangi risiko kebocoran data sensitif. Hal ini mencakup pembatasan data yang digunakan untuk tujuan pelatihan, pembatasan penyimpanan data, pembatasan berbagi akun, anonimisasi, dan banyak lagi. Perhatikan bahwa hal ini memerlukan penerapan akun non-pribadi saat menggunakan GenAI (yang memerlukan alat berpemilik untuk melakukannya).
- Mendorong Pengguna – Sebagai langkah ketiga, gunakan kekuatan karyawan Anda sendiri. Pesan pengingat sederhana yang muncul saat menggunakan alat GenAI akan membantu menciptakan kesadaran di kalangan karyawan akan potensi konsekuensi dari tindakan mereka dan kebijakan organisasi. Hal ini secara efektif dapat mengurangi perilaku berisiko.
- Memblokir Masukan Informasi Sensitif – Sekarang saatnya memperkenalkan teknologi canggih. Menerapkan kontrol otomatis yang membatasi masukan data sensitif dalam jumlah besar ke alat GenAI. Hal ini sangat efektif untuk mencegah karyawan berbagi kode sumber, informasi pelanggan, PII, data keuangan, dan banyak lagi.
- Membatasi Ekstensi Browser GenAI – Terakhir, cegah risiko ekstensi browser. Secara otomatis mengelola dan mengklasifikasikan ekstensi browser AI berdasarkan risiko untuk mencegah akses tidak sah ke data organisasi yang sensitif.
Untuk menikmati manfaat produktivitas AI Generatif secara penuh, perusahaan perlu menemukan keseimbangan antara produktivitas dan keamanan. Oleh karena itu, keamanan GenAI tidak boleh menjadi pilihan biner antara mengizinkan semua aktivitas AI atau memblokir semuanya. Sebaliknya, mengambil pendekatan yang lebih bernuansa dan disesuaikan akan memungkinkan organisasi memperoleh manfaat bisnis, tanpa membiarkan organisasinya terekspos. Bagi manajer keamanan, ini adalah cara untuk menjadi mitra bisnis utama dan pendukung.
Unduh panduannya untuk mempelajari bagaimana Anda juga dapat segera menerapkan langkah-langkah ini dengan mudah.