Sisi Gelap Kecerdasan Buatan: Munculnya Dark AI yang Mengkhawatirkan

  • 20 Agustus 2025
  • 3157

Perkembangan Artificial Intelligence (AI) telah membawa kemajuan besar di berbagai sektor, mulai dari bisnis, kesehatan, hingga keamanan. Namun, di balik manfaat yang luar biasa tersebut, ancaman baru mulai mengintai Dark AI.


Menurut Kaspersky, perusahaan keamanan siber asal Rusia, Dark AI adalah bentuk AI yang dirancang atau dimodifikasi khusus untuk tujuan berbahaya di dunia maya, seperti peretasan, penipuan, hingga spionase.


“Kita memasuki era di mana AI bisa jadi perisai, tapi Dark AI adalah pedangnya,” ujar Sergey Lozhkin, Kepala Tim Riset Analisis Global Kaspersky untuk META dan APAC, dikutip dari CNNIndonesia.com,


Apa Itu Dark AI?


Mengutip dari CNNIndonesia.com, Dark AI mengacu pada penggunaan Large Language Model (LLM) tanpa pengawasan, aturan, atau batasan etis. Berbeda dengan AI komersial yang memiliki filter keamanan, Dark AI beroperasi di luar regulasi dan tata kelola standar.


Model ini mampu menghasilkan kode malware, merancang email phishing yang sangat meyakinkan, hingga menciptakan deepfake berupa video atau audio palsu yang dapat digunakan untuk kejahatan digital.


Beberapa contoh Dark AI yang populer sejak 2023 antara lain Black Hat GPT, WormGPT, DarkBard, FraudGPT, dan Xanthorox. Semua dirancang untuk memudahkan pelaku kejahatan siber menjalankan operasi secara otomatis, sistematis, dan dalam skala besar.


Kaspersky mengungkap bahwa pelaku di balik Dark AI bukan sekadar peretas individu yang bekerja sendirian. Teknologi ini justru dimanfaatkan oleh kelompok kriminal terorganisir dengan operasi siber yang kompleks. Mereka dapat menciptakan identitas palsu yang sangat meyakinkan, berinteraksi langsung dengan korban, dan memproduksi konten multibahasa yang mampu menembus filter keamanan tradisional.


Bukan hanya Kaspersky yang mendeteksi bahaya ini. OpenAI, perusahaan di balik ChatGPT, juga melaporkan telah memblokir lebih dari 20 operasi mencurigakan yang mencoba memanfaatkan platform mereka untuk kejahatan siber.


Dalam laporannya, OpenAI menyebut bahwa pelaku memanfaatkan LLM untuk membuat persona palsu, menipu korban, dan menghindari deteksi dengan komunikasi yang disesuaikan pada bahasa serta budaya target.


Mengapa Dark AI Berbahaya?


Kelemahan mendasar AI adalah ketidakmampuannya membedakan benar dan salah secara inheren. AI hanya menjalankan perintah sesuai input yang diterima. Artinya, jika diarahkan untuk tujuan jahat, AI akan melaksanakannya tanpa mempertimbangkan konsekuensi moral atau hukum.


Dengan Dark AI yang kini semakin canggih dan mudah diakses, risiko serangan siber berskala besar pun meningkat tajam. Dampaknya bisa berupa pencurian data sensitif, sabotase infrastruktur digital, hingga manipulasi opini publik melalui penyebaran konten palsu.


Perlunya Pertahanan Siber yang Lebih Kuat


Lozhkin menekankan pentingnya kesiapan organisasi dan individu, khususnya di kawasan Asia Pasifik, dalam menghadapi ancaman ini. Langkah-langkah yang disarankan meliputi:


• Memperketat higiene keamanan siber di semua lapisan

• Berinvestasi dalam teknologi deteksi ancaman berbasis AI

• Terus mempelajari cara-cara Dark AI dapat dieksploitasi oleh pelaku kriminal


Dengan kemajuan AI yang tidak bisa dibendung, keamanan siber kini berada di titik kritis. Dark AI adalah bukti bahwa teknologi canggih bisa menjadi senjata mematikan jika jatuh ke tangan yang salah. (Boby)


https://untag-sby.ac.id
https://www.untag-sby.ac.id

\