Kaspersky Soroti Potensi Pemanfaatan AI yang Berbahaya oleh Penjahat Siber Kaspersky Soroti Potensi Pemanfaatan AI yang Berbahaya oleh Penjahat Siber ~ Teknogav.com

Kaspersky Soroti Potensi Pemanfaatan AI yang Berbahaya oleh Penjahat Siber

Teknogav.com - Seiring pesatnya perkembangan sistem AI canggih di ranah publik, maka penggunaan oleh individu dan bisnis pun makin meluas. Berbagai tugas bisa dilakukan dengan mengadaptasi AI, termasuk untuk membuat konten dan kode pemrograman melalui perintah bahasa alami. Kemudahan ini justru memudahkan penjahat siber memanfaatkan AI untuk melancarkan serangan canggih. AI bisa dimanfaatkan penjahat siber untuk mengotomatisasi serangan, mempercepat rutinitas dan menjalankan operasi yang rumit untuk mencapai tujuannya.

Potensi penerapan AI yang berbahaya oleh penjahat siber menjadi sorotan Kaspersky. Perusahaan penyedia produk dan layanan keamanan siber tersebut menekankan pentingnya untuk mengembangkan pertahanan keamanan siber yang proaktif. Pemanfaatan AI bak pisau bermata dua, bisa digunakan sebagai alat untuk melancarkan serangan, bisa juga untuk memperkuat keamanan siber.

Berdasarkan pengamatan Kaspersky, berikut ini adalah beberapa cara penjahat siber memanfaatkan AI:

  • Pemrograman perangkat lunak berbahaya dan otomatisasi serangan kepada pengguna menggunakan ChatGPT
  • Menganalisis data sensor akselerasi di smartphone yang berpotensi mendapatkan pesan, kata sandi, dan kode perbankan dengan program AI 
  • Pengoperasiam botnet otonom yang saling berkomunikasi dengan kecerdasan kelompok (swarm intelligence) untuk memulihkan jaringan berbahaya setelah dilumpuhkan
  • Menebak kata sandi.  Banyak pengguna dan perusahaan dirugikan oleh kebocoran kata sandi. Biasanya sekumpulan data kata sandi dienkripsi dengan hash kripto, tetapi AI dapat membantu penjahat siber mendekripsi kata sandi

Baru-baru ini, Kaspersky melakukan penelitian menyeluruh lain mengenai penggunaan AI untuk memecahkan kata sandi. Sebagian besar kata sandi disimpan dengan enkripsi menggunakan fungsi hash kriptografi seperti MD5 dan SHA. Teks kata sandi midah diubah menjadi baris teks dengan enkripsi, tetapi membalik proses tersebut merupakan tantangan. Kendati demikian, kebocoran basis data kata sandi sering terjadi. Hal ini mempengaruhi perusahaan kecil dan pemimpin teknologi.

Baca juga:  RockYou2024 Bocorkan 10 Miliar Kata Sandi, Ini Tips Mitigasi Risikonya

Kebocoran kata sandi terbesar terjadi pada Juli 2024 dan telah disebarkan secara daring yang dikenal dengan insiden RockYou2024. Basis data tersebut berisi sekitar 10 miliar baris dengan 8,2 miliar kata sandi unik. Jumlah tersebut melebihi populasi di bumi.

"Kami menganalisis kebocoran data besar-besaran ini dan menemukan bahwa 32% kata sandi pengguna tidak cukup kuat dan dapat dikembalikan dari bentuk hash terenkripsi menggunakan algoritma brute-force sederhana dan GPU 4090 modern dalam waktu kurang dari 60 menit," ucap Alexey Antonov, Kepala Ilmuwan Data di Kaspersky.

Alexey Antonov, Kepala Ilmuwan Data di Kaspersky

Kaspersky telah melatih model bahaaa pada basis data kata sandi dan mencoba memeriksa kata sandi dengan metode AI yang diperoleh. Cara tersebut dapat memecahkan 78% kata sandi dengan sekitar tiga kali lebih cepat dibandingkan memakai algoritma brute-force. Sementara, hanya 7% dari kata sandi tersebut yang cukup kuat menahan serangan jangka panjang.

AI untuk Rekayasa Sosial

AI juga dapat dimanfaatkan dengan rekayasa sosial untuk menghasilkan konten yang terlihat masuk akal. Contoh konten tersebut mencakup teks, gambar, audio, dan video. Teks penipuan, termasuk untuk phishing bisa dibuat penjahat siber menggunakan model bahasa besar seperti ChatGPT-40. Phishing yang dibuat dengan AI bisa mengatasi kendala bahasa dan membuat email yang dipersonalisasi berdasarkan informasi media sosial pengguna. Serangan phishing bisa lebih susah dideteksi karena AI bisa meniru gaya penulisan individu tertentu.

Tantangan keamanan siber lain dihadirkan oleh deepfake. Penipuan identitas selebriti yang dilakukan penjahat siber untuk menipu bisa menimbulkan kerugian finansial yang signifikan. Deepfake juga bisa dipakai untuk mencuri akun pengguna dan mengirim audio permintaan uang menggunakan suara pemilik akun ke teman dan kerabat.

Baca juga: Jasa Pembuatan Deepfake Marak di Darknet, Ini Cara Kerjanya

Penjahat siber juga bisa menipu terkait percintaan dengan membuat personal palsu dan berkomunikasi dengan korban di situs kencan. Deepfake yang memanfaatkan eksekutif perusahaan ternama digunakan penipu untuk mensimulasikan panggilan konferensi video pada Februari di Hong Kong. Penipuan tersebut meyakinkan karyawan bagian keuangan untuk melakukan transfer sebesar USD25 juta.

AI Lawan AI

Pelaku kejahatan siber juga bisa menyerang algoritma AI dan menembus celah kerentanan tersebut. Permintaan yang melewati batasan perintah sebelumnya dapat dibuat penjahat siber untuk melakukan serangan injeksi cepat pada model bahasa besar. AI juga bisa dibuat bingung dan mengambil keputusan yang salah menggunakan adversarial pada algoritma pembelajaran mesin. Caranya adalah dengan menyematkan informasi tersembunyi dalam gambar atau audio untuk menyembunyikan trafik berbahaya.

Baca juga: Infostealers Susupi Lebih dari 36 Juta Kredensial AI dan Game

Kini AI makin menyatu dalam kehidupan, AI hadir di produk-produk seperti Apple Intelligence, Google Gemini dan Microsoft Copilot. Seiring makin terintegrasi nya AI dalam kehidupan, maka sangat penting untuk mengatasi kerentanan AI.

Penggunaan AI oleh Kaspersky

Teknologi AI telah dimanfaatkan Kaspersky untuk melindungi pelanggan selama bertahun-tahun. Kaspersky memakai berbagai model AI untuk mendeteksi ancaman. Kerentanan AI juga terus diteliti agar teknologi Kaspersky makin tangguh. Beragam teknik berbahaya juga dipelajari Kaspersky secara aktif untuk menyajikan perlindungan andal dari AI yang digunakan untuk menyerang atau merugikan.

Share:

Artikel Terkini