
Lansekap keamanan siber telah secara dramatis dibentuk kembali oleh munculnya AI generatif. Penyerang sekarang memanfaatkan model bahasa besar (LLM) untuk menyamar sebagai individu tepercaya dan mengotomatiskan taktik rekayasa sosial ini dalam skala.
Mari kita tinjau status serangan meningkat ini, apa yang memicu mereka, dan bagaimana cara mencegah, tidak mendeteksi, mereka.
Orang yang paling kuat dalam panggilan itu mungkin tidak nyata
Laporan Ancaman Intelijen Terbaru Menyoroti Kecanggihan yang Berkembang dan Prevalensi Serangan yang Digerakkan AI:
Di era baru ini, kepercayaan tidak dapat diasumsikan atau hanya terdeteksi. Itu harus terbukti secara deterministik dan secara real-time.
Mengapa Masalahnya Berkembang
Tiga tren berkumpul untuk membuat peniruan AI vektor ancaman besar berikutnya:
- AI membuat penipuan murah dan dapat diskalakan: Dengan alat suara dan video open-source, aktor ancaman dapat menyamar sebagai siapa saja dengan hanya beberapa menit materi referensi.
- Kolaborasi virtual memperlihatkan kesenjangan kepercayaan: Alat seperti Zoom, Tim, dan Slack mengasumsikan orang di belakang layar adalah siapa yang mereka klaim. Penyerang mengeksploitasi asumsi itu.
- Pertahanan umumnya bergantung pada probabilitas, bukan bukti: Alat deteksi deepfake menggunakan penanda dan analitik wajah tebakan Jika seseorang itu nyata. Itu tidak cukup baik di lingkungan berisiko tinggi.
Dan sementara alat titik akhir atau pelatihan pengguna dapat membantu, mereka tidak dibangun untuk menjawab pertanyaan kritis secara real-time: Bisakah saya mempercayai orang yang saya ajak bicara ini?
Teknologi deteksi AI tidak cukup
Pertahanan tradisional fokus pada deteksi, seperti melatih pengguna untuk melihat perilaku yang mencurigakan atau menggunakan AI untuk menganalisis apakah seseorang itu palsu. Tapi Deepfakes menjadi terlalu bagus, terlalu cepat. Anda tidak dapat melawan penipuan yang dihasilkan AI dengan alat berbasis probabilitas.
Pencegahan aktual membutuhkan fondasi yang berbeda, yang didasarkan pada kepercayaan yang dapat dibuktikan, bukan asumsi. Itu artinya:
- Verifikasi Identitas: Hanya pengguna yang diverifikasi dan resmi harus dapat bergabung dengan pertemuan atau obrolan yang sensitif berdasarkan kredensial kriptografi, bukan kata sandi atau kode.
- Pemeriksaan Integritas Perangkat: Jika perangkat pengguna terinfeksi, jailbroken, atau tidak patuh, itu menjadi titik masuk potensial bagi penyerang, bahkan jika identitas mereka diverifikasi. Blokir perangkat ini dari rapat sampai diperbaiki.
- Indikator kepercayaan yang terlihat: Peserta lain perlu melihat Bukti bahwa setiap orang dalam rapat adalah siapa mereka mengatakan mereka dan berada di perangkat yang aman. Ini menghilangkan beban penilaian dari pengguna akhir.
Pencegahan berarti menciptakan kondisi di mana peniruan tidak hanya sulit, itu tidak mungkin. Begitulah cara Anda mematikan serangan AI Deepfake sebelum mereka bergabung dengan percakapan berisiko tinggi seperti rapat dewan, transaksi keuangan, atau kolaborasi vendor.
Pendekatan berbasis deteksi | Pendekatan pencegahan |
---|---|
Anomali bendera setelah itu terjadi | Memblokir pengguna yang tidak berwenang untuk bergabung |
Mengandalkan heuristik & dugaan | Gunakan bukti kriptografi identitas |
Membutuhkan penilaian pengguna | Berikan indikator kepercayaan yang terlihat dan terverifikasi |
Hilangkan ancaman Deepfake dari panggilan Anda
RealityCheck oleh Beyond Identity dibangun untuk menutup kesenjangan kepercayaan ini di dalam alat kolaborasi. Ini memberi setiap peserta lencana identitas yang terlihat dan terverifikasi yang didukung oleh otentikasi perangkat kriptografi dan pemeriksaan risiko berkelanjutan.
Saat ini tersedia untuk tim zoom dan microsoft (video dan obrolan), realityCheck:
- Mengkonfirmasi identitas setiap peserta adalah nyata dan berwenang
- Memvalidasi kepatuhan perangkat secara real time, bahkan pada perangkat yang tidak dikelola
- Menampilkan lencana visual untuk menunjukkan kepada orang lain bahwa Anda telah diverifikasi
Jika Anda ingin melihat cara kerjanya, Beyond Identity hosting webinar di mana Anda dapat melihat produk yang sedang beraksi. Daftar di sini!