
Rekayasa sosial telah lama menjadi taktik yang efektif karena bagaimana ia berfokus pada kerentanan manusia. Tidak ada kata sandi 'semprotan dan berdoa' yang brute menebak. Tidak ada sistem gerusan untuk perangkat lunak yang tidak ditandingi. Sebaliknya, itu hanya bergantung pada memanipulasi emosi seperti kepercayaan, ketakutan, dan penghormatan terhadap otoritas, biasanya dengan tujuan mendapatkan akses ke informasi sensitif atau sistem yang dilindungi.
Secara tradisional itu berarti meneliti dan melibatkan target individu secara manual, yang membutuhkan waktu dan sumber daya. Namun, kedatangan AI kini memungkinkan untuk meluncurkan serangan rekayasa sosial dengan cara yang berbeda, dalam skala, dan seringkali tanpa keahlian psikologis. Artikel ini akan mencakup lima cara bahwa AI memberi daya pada gelombang baru serangan rekayasa sosial.
Audio Deepfake yang mungkin telah memengaruhi pemilihan Slovakia
Menjelang pemilihan parlemen Slovakia pada tahun 2023, rekaman muncul yang tampaknya menampilkan kandidat Michal Simecka dalam percakapan dengan jurnalis terkenal, Monika Todova. Audio dua menit termasuk diskusi membeli suara dan menaikkan harga bir.
Setelah menyebar secara online, percakapan itu dinyatakan palsu, dengan kata -kata yang diucapkan oleh AI yang telah dilatih pada suara -suara pembicara.

Namun, Deepfake dirilis hanya beberapa hari sebelum pemilihan. Ini membuat banyak orang bertanya -tanya apakah AI telah memengaruhi hasilnya, dan berkontribusi pada partai Slovakia progresif Michal Simecka yang berada di urutan kedua.
Panggilan video $ 25 juta yang tidak
Pada bulan Februari 2024 laporan muncul tentang serangan rekayasa sosial bertenaga AI pada pekerja keuangan di Multinasional. Mereka menghadiri pertemuan online dengan siapa yang mereka pikir adalah CFO mereka dan kolega lainnya.
Selama Videocall, pekerja keuangan diminta untuk melakukan transfer $ 25 juta. Percaya bahwa permintaan itu datang dari CFO yang sebenarnya, pekerja mengikuti instruksi dan menyelesaikan transaksi.
Awalnya, mereka dilaporkan menerima undangan pertemuan melalui email, yang membuat mereka curiga menjadi target serangan phishing. Namun, setelah melihat apa yang tampaknya menjadi CFO dan kolega secara langsung, kepercayaan dipulihkan.
Satu -satunya masalah adalah bahwa pekerja itu adalah satu -satunya orang asli yang hadir. Setiap peserta lainnya dibuat secara digital menggunakan teknologi Deepfake, dengan uang masuk ke akun penipu.
Permintaan uang tebusan $ 1 juta ibu untuk anak perempuan
Banyak dari kita telah menerima SMS acak yang dimulai dengan variasi 'Hai Mom/Dad, ini nomor baru saya. Bisakah Anda mentransfer sejumlah uang ke akun baru saya? ' Ketika diterima dalam bentuk teks, lebih mudah untuk mengambil langkah mundur dan berpikir, 'Apakah pesan ini nyata?' Namun, bagaimana jika Anda mendapat telepon dan Anda mendengar orang itu dan mengenali suara mereka? Dan bagaimana jika kedengarannya diculik?
Itulah yang terjadi pada seorang ibu yang bersaksi di Senat AS pada tahun 2023 tentang risiko kejahatan yang dihasilkan AI. Dia menerima telepon yang terdengar seperti itu dari putrinya yang berusia 15 tahun. Setelah menjawab dia mendengar kata -kata, 'Bu, orang -orang jahat ini memiliki saya', diikuti oleh suara pria yang mengancam untuk bertindak atas serangkaian ancaman mengerikan kecuali jika uang tebusan $ 1 juta dibayar.
Terkejut oleh kepanikan, kejutan, dan urgensi, sang ibu percaya apa yang dia dengar, sampai ternyata panggilan itu dilakukan dengan menggunakan suara yang dikloning Ai.
Obrolan Facebook palsu yang memanen nama pengguna dan kata sandi
Facebook mengatakan: 'Jika Anda mendapatkan email atau pesan yang mencurigakan yang mengklaim berasal dari Facebook, jangan klik tautan atau lampiran apa pun.' Namun penyerang rekayasa sosial masih mendapatkan hasil menggunakan taktik ini.
Mereka mungkin bermain pada ketakutan orang -orang kehilangan akses ke akun mereka, meminta mereka untuk mengklik tautan berbahaya dan mengajukan banding larangan palsu. Mereka dapat mengirim tautan dengan pertanyaan 'Apakah ini Anda di video ini?' dan memicu rasa ingin tahu yang alami, perhatian, dan keinginan untuk mengklik.
Penyerang sekarang menambahkan lapisan lain ke jenis serangan rekayasa sosial ini, dalam bentuk chatbots bertenaga AI. Pengguna mendapatkan email yang berpura -pura berasal dari Facebook, mengancam untuk menutup akun mereka. Setelah mengklik tombol 'Banding di sini', chatbot terbuka yang meminta detail nama pengguna dan kata sandi. Jendela dukungan adalah bermerek Facebook, dan interaksi langsung datang dengan permintaan untuk 'bertindak sekarang', menambahkan urgensi pada serangan itu.
'Letakkan senjatamu,' kata Presiden Deepfake Zelensky
Seperti kata pepatah: korban perang pertama adalah kebenaran. Hanya saja dengan AI, kebenaran sekarang bisa dibuat ulang secara digital juga. Pada tahun 2022, sebuah video palsu tampaknya menunjukkan kepada Presiden Zelensky yang mendesak Ukraina untuk menyerah dan berhenti berkelahi dalam perang melawan Rusia. Rekaman itu keluar di Ukraina24, sebuah stasiun televisi yang diretas, dan kemudian dibagikan secara online.
![]() |
Masih dari video presiden zelensky deepfake, dengan perbedaan warna kulit wajah dan leher |
Banyak laporan media menyoroti bahwa video tersebut berisi terlalu banyak kesalahan yang bisa dipercaya secara luas. Ini termasuk kepala presiden yang terlalu besar untuk tubuh, dan ditempatkan pada sudut pandang yang tidak wajar.
Sementara kita masih dalam hari -hari yang relatif awal untuk AI dalam rekayasa sosial, jenis video ini sering cukup untuk setidaknya membuat orang berhenti dan berpikir, 'Bagaimana jika ini benar?' Terkadang menambahkan unsur keraguan pada keaslian lawan adalah semua yang diperlukan untuk menang.
AI membawa rekayasa sosial ke tingkat berikutnya: bagaimana merespons
Tantangan besar bagi organisasi adalah bahwa serangan rekayasa sosial menargetkan emosi dan membangkitkan pikiran yang membuat kita semua manusia. Lagipula, kita terbiasa mempercayai mata dan telinga kita, dan kita ingin mempercayai apa yang kita diberitahu. Ini adalah naluri alami yang tidak bisa hanya dinonaktifkan, diturunkan, atau ditempatkan di belakang firewall.
Tambahkan kebangkitan AI, dan jelas serangan ini akan terus muncul, berevolusi, dan berkembang dalam volume, variasi, dan kecepatan.

Itu sebabnya kita perlu melihat mendidik karyawan untuk mengendalikan dan mengelola reaksi mereka setelah menerima permintaan yang tidak biasa atau tidak terduga. Mendorong orang untuk berhenti dan berpikir sebelum menyelesaikan apa yang diminta untuk mereka lakukan. Menunjukkan kepada mereka seperti apa serangan rekayasa sosial berbasis AI dan yang paling penting, rasanya seperti dalam praktik. Sehingga tidak peduli seberapa cepat AI berkembang, kita dapat mengubah tenaga kerja menjadi lini pertahanan pertama.
Berikut rencana aksi 3 poin yang dapat Anda gunakan untuk memulai:
- Bicara tentang kasus -kasus ini kepada karyawan dan kolega Anda dan melatihnya secara khusus terhadap ancaman Deepfake – Untuk meningkatkan kesadaran mereka, dan mengeksplorasi bagaimana mereka akan (dan harus) merespons.
- Siapkan beberapa simulasi rekayasa sosial untuk karyawan Anda – sehingga mereka dapat mengalami teknik manipulasi emosional yang umum, dan mengenali naluri alami mereka untuk merespons, seperti dalam serangan nyata.
- Tinjau pertahanan organisasi Anda, izin akun, dan hak istimewa peran – Untuk memahami pergerakan aktor ancaman potensial jika mereka ingin mendapatkan akses awal.