
Di mana pun ada konflik di dunia, propaganda tidak pernah jauh. Perjalanan kembali ke 515 SM dan baca The Behistun Prasasti, sebuah otobiografi oleh Raja Persia Darius yang membahas kenaikan kekuasaannya. Baru -baru ini, lihat betapa berbedanya surat kabar tentang perang, di mana dikatakan, 'Korban pertama adalah kebenaran.'
Sementara bentuk -bentuk komunikasi ini dapat membentuk keyakinan orang, mereka juga membawa keterbatasan di sekitar skalabilitas. Pesan dan propaganda apa pun akan sering kehilangan kekuatannya setelah melakukan perjalanan jarak tertentu. Tentu saja, dengan media sosial dan dunia online ada beberapa batasan fisik yang dijangkau, terlepas dari tempat koneksi internet seseorang turun. Tambahkan kebangkitan AI, dan juga tidak ada yang menghentikan skalabilitas.
Artikel ini mengeksplorasi apa artinya ini bagi masyarakat dan organisasi yang menghadapi manipulasi dan penipuan informasi bertenaga AI.
Bangkitnya Kamar Gema
Menurut Pew Research Center, sekitar satu dari lima orang Amerika mendapatkan berita mereka dari media sosial. Di Eropa, ada peningkatan 11% pada orang yang menggunakan platform media sosial untuk mengakses berita. Algoritma AI adalah jantung dari perubahan perilaku ini. Namun, mereka tidak dipaksa untuk menghadirkan kedua sisi sebuah cerita, dengan cara yang dilatih oleh jurnalis, dan yang dibutuhkan oleh regulator media. Dengan lebih sedikit batasan, platform media sosial dapat fokus pada melayani konten yang disukai, diinginkan, dan bereaksi oleh pengguna mereka.
Fokus pada pemeliharaan bola mata ini dapat menyebabkan ruang gema digital, dan sudut pandang yang berpotensi terpolarisasi. Misalnya, orang dapat memblokir opini yang tidak mereka setujui, sementara algoritma secara otomatis menyesuaikan umpan pengguna, bahkan memantau kecepatan pengguliran, untuk meningkatkan konsumsi. Jika konsumen hanya melihat konten yang mereka setujui, mereka mencapai konsensus dengan apa yang ditunjukkan AI kepada mereka, tetapi bukan dunia yang lebih luas.
Terlebih lagi, lebih banyak konten itu sekarang dihasilkan secara sintetis menggunakan alat AI. Ini termasuk lebih dari 1.150 situs web berita yang tidak dapat diandalkan AI yang baru-baru ini diidentifikasi oleh NewsGuard, sebuah perusahaan yang berspesialisasi dalam keandalan informasi. Dengan sedikit keterbatasan kemampuan output AI, proses politik yang sudah lama merasakan dampaknya.
Bagaimana AI digunakan untuk penipuan
Adalah adil untuk mengatakan bahwa kita manusia tidak dapat diprediksi. Bias ganda dan kontradiksi kami yang tak terhitung jumlahnya bermain di masing -masing otak kami secara konstan. Di mana miliaran neuron membuat koneksi baru yang membentuk realitas dan pada gilirannya, pendapat kami. Ketika aktor jahat menambahkan AI ke dalam campuran yang kuat ini, ini mengarah pada peristiwa seperti:
- Video Deepfake menyebar selama pemilihan AS: Alat AI memungkinkan penjahat cyber untuk membuat rekaman palsu, menampilkan orang yang bergerak dan berbicara, hanya menggunakan petunjuk teks. Tingginya tingkat kemudahan dan kecepatan berarti tidak ada keahlian teknis yang diperlukan untuk membuat rekaman yang bertenaga AI yang realistis. Demokratisasi ini mengancam proses demokrasi, seperti yang ditunjukkan menjelang pemilihan AS baru-baru ini. Microsoft menyoroti aktivitas dari Cina dan Rusia, di mana 'aktor ancaman diamati mengintegrasikan AI generatif ke dalam upaya pengaruh pemilu AS mereka.'
- Kloning suara dan apa yang dikatakan tokoh politik: Penyerang sekarang dapat menggunakan AI untuk menyalin suara siapa pun, hanya dengan memproses beberapa detik dari pidato mereka. Itulah yang terjadi pada seorang politisi Slovakia pada tahun 2023. Sebuah penyebaran rekaman audio palsu secara online, yang seharusnya menampilkan Michal Simecka berdiskusi dengan seorang jurnalis bagaimana memperbaiki pemilihan yang akan datang. Sementara diskusi segera ditemukan palsu, ini semua terjadi hanya beberapa hari sebelum pemungutan suara dimulai. Beberapa pemilih mungkin telah memberikan suara mereka sambil percaya bahwa video AI itu asli.
- Llms memalsukan sentimen publik: Musuh sekarang dapat berkomunikasi sebanyak mungkin bahasa seperti mereka yang dipilih, dan pada skala apa pun juga. Kembali pada tahun 2020, LLM awal, GPT-3, dilatih untuk menulis ribuan email kepada legislator negara bagian AS. Ini menganjurkan campuran masalah dari kiri dan kanan spektrum politik. Sekitar 35.000 email dikirim, campuran yang ditulis manusia dan ditulis AI. Tingkat respons legislator 'secara statistik tidak dapat dibedakan' pada tiga masalah yang diangkat.
Dampak AI pada proses demokratis
Masih mungkin untuk mengidentifikasi banyak penipuan bertenaga AI. Apakah itu dari bingkai yang berkilau dalam sebuah video, atau kata yang salah diucapkan dalam sebuah pidato. Namun, seiring perkembangan teknologi, itu akan menjadi lebih sulit, bahkan tidak mungkin untuk memisahkan fakta dari fiksi.
Pemeriksa fakta mungkin dapat melampirkan tindak lanjut ke posting media sosial palsu. Situs web seperti Snopes dapat terus menyanggah teori konspirasi. Namun, tidak ada cara untuk memastikan ini dilihat oleh semua orang yang melihat posting asli. Juga sangat tidak mungkin untuk menemukan sumber asli bahan palsu, karena jumlah saluran distribusi yang tersedia.
Laju evolusi
Melihat (atau mendengar) percaya. Saya akan percaya saat saya melihatnya. Tunjukkan, jangan katakan padaku. Semua frasa ini didasarkan pada pemahaman evolusi manusia tentang dunia. Yaitu, bahwa kita memilih untuk mempercayai mata dan telinga kita.
Indera ini telah berkembang lebih dari ratusan, bahkan jutaan tahun. Sedangkan Chatgpt dirilis secara publik pada bulan November 2022. Otak kita tidak dapat beradaptasi dengan kecepatan AI, jadi jika orang tidak bisa lagi mempercayai apa yang ada di depan mereka, saatnya untuk mendidik mata, telinga, dan pikiran semua orang.
Kalau tidak, ini membuat organisasi terbuka lebar untuk diserang. Lagi pula, pekerjaan sering kali di mana orang menghabiskan sebagian besar waktu di komputer. Ini berarti melengkapi tenaga kerja dengan kesadaran, pengetahuan, dan skeptis ketika dihadapkan dengan konten yang direkayasa untuk menghasilkan tindakan. Apakah itu berisi pesan politik pada waktu pemilihan, atau meminta karyawan untuk melewati prosedur dan melakukan pembayaran ke rekening bank yang tidak diverifikasi.
Ini berarti membuat masyarakat sadar akan banyak cara aktor jahat bermain pada bias alami, emosi, dan naluri untuk mempercayai apa yang dikatakan seseorang. Ini bermain dalam berbagai serangan rekayasa sosial, termasuk phishing ('tipe kejahatan internet nomor satu' menurut FBI).
Dan itu berarti mendukung individu untuk mengetahui kapan harus berhenti, merefleksikan, dan menantang apa yang mereka lihat online. Salah satu caranya adalah dengan mensimulasikan serangan bertenaga AI, sehingga mereka mendapatkan pengalaman langsung tentang bagaimana rasanya dan apa yang harus diwaspadai. Manusia membentuk masyarakat, mereka hanya membutuhkan bantuan untuk membela diri, organisasi, dan masyarakat terhadap penipuan bertenaga AI.