Jakarta, Suarabersama.com – Perusahaan keamanan siber Kaspersky mengimbau masyarakat dan organisasi untuk mewaspadai kemunculan Dark AI atau kecerdasan buatan gelap, yang kini digunakan pelaku kejahatan untuk melancarkan berbagai serangan siber tingkat tinggi.
Dalam riset terbarunya, Kaspersky mengungkap Dark AI memanfaatkan model bahasa besar (large language model / LLM) tanpa batasan keamanan, kepatuhan, maupun tata kelola standar. Teknologi ini memungkinkan pelaku membuat kode berbahaya, menyusun email phishing yang meyakinkan, menciptakan deepfake suara dan video, hingga mendukung operasi spionase siber.
“Sejak ChatGPT populer pada 2023, AI dimanfaatkan untuk banyak hal positif. Namun di sisi lain, pelaku kejahatan siber menggunakannya untuk meningkatkan kemampuan serangan mereka. Kini, AI menjadi perisai, sementara Dark AI adalah pedangnya,” kata Sergey Lozhkin, Kepala Tim Riset Analisis Global (GReAT) Kaspersky untuk META dan APAC, Selasa (5/8).
Beberapa varian Dark AI yang telah teridentifikasi antara lain Black Hat GPT, WormGPT, DarkBard, FraudGPT, dan Xanthorox. Selain digunakan untuk kejahatan siber umum, Kaspersky juga menemukan indikasi bahwa aktor negara memanfaatkan LLM dalam kampanye mereka.
OpenAI bahkan melaporkan berhasil menggagalkan lebih dari 20 operasi siber terselubung yang mencoba menyalahgunakan teknologi AI mereka untuk membuat persona palsu, merespons target secara real-time, dan memproduksi konten multibahasa guna menembus sistem keamanan tradisional.
Kaspersky menekankan pentingnya memperkuat kebersihan keamanan siber (cyber hygiene), berinvestasi pada sistem deteksi ancaman berbasis AI, serta meningkatkan literasi digital untuk mencegah penyalahgunaan teknologi ini di Asia Pasifik.
(HP)



