BeritaKriminalitasteknologi

Pakai Deepfake Wajah Supermodel, Sindikat Penipu Raup Rp64 Miliar

Jakarta — Teknologi kecerdasan buatan (AI) kembali disalahgunakan.
Kali ini, sebuah sindikat penipu internasional menggunakan teknologi deepfake untuk menyamar sebagai supermodel terkenal dunia, lalu menipu ratusan korban di Asia Tenggara.
Total kerugian ditaksir mencapai Rp64 miliar.

Kasus yang terungkap awal Oktober 2025 ini menjadi salah satu skandal deepfake terbesar di kawasan, dan memperlihatkan bagaimana AI yang diciptakan untuk inovasi kini berubah menjadi senjata manipulasi.


Wajah Cantik, Akun Palsu, Uang Hilang

Kepolisian Singapura, Thailand, dan Indonesia bekerja sama dalam penyelidikan jaringan ini.
Sindikat tersebut diketahui menggunakan video deepfake ultra-realistis dari wajah seorang supermodel Eropa terkenal — yang identitas aslinya disamarkan oleh otoritas — untuk membuat konten pendek, siaran langsung, dan panggilan video palsu.

Dalam setiap interaksi, pelaku berbicara dengan suara lembut, menggunakan teknologi voice cloning, dan menampilkan ekspresi wajah yang sepenuhnya realistis.
Banyak korban tak menyadari bahwa mereka sedang berbicara dengan AI yang dioperasikan oleh bot kriminal.

“Saya mengira sedang berbicara dengan selebritas sungguhan. Ia bahkan mengucapkan nama saya dengan logat yang pas,” kata Rafi (33), seorang pengusaha muda dari Jakarta yang kehilangan hampir Rp800 juta setelah mentransfer dana ke rekening penipu.

Para korban biasanya diajak berinvestasi di proyek fashion atau kosmetik yang diklaim milik sang model.
Setelah beberapa kali transaksi kecil yang tampak “sukses”, pelaku mengarahkan korban mentransfer dana besar — sebelum akun dan situs lenyap begitu saja.


Teknologi Deepfake yang Semakin Sulit Dikenali

Kasus ini mengejutkan banyak pihak karena kualitas deepfake yang digunakan hampir mustahil dibedakan dengan manusia nyata.
Para pelaku diduga menggunakan model AI generatif kelas premium yang dikembangkan secara ilegal dengan mencuri data video dari berbagai platform, termasuk Instagram, TikTok, dan YouTube.

“Deepfake generasi baru ini tak lagi meninggalkan jejak visual kasar seperti dulu. Detail mata, kedipan, bahkan pencahayaan kini disimulasikan secara sempurna,” ujar Dr. William Tan, pakar forensik digital dari National University of Singapore.

Teknologi semacam ini dulunya membutuhkan perangkat mahal dan kemampuan tinggi.
Namun kini, siapa pun dengan GPU menengah dan koneksi internet cepat bisa membuat deepfake realistis hanya dengan modal beberapa ratus dolar.

Inilah alasan mengapa penipuan digital kini memasuki fase baru: penipuan berbasis identitas visual.


Indonesia Juga Jadi Sasaran

Kepolisian RI melalui Direktorat Tindak Pidana Siber (Dittipidsiber) mengonfirmasi bahwa beberapa korban berasal dari Indonesia.
Modusnya serupa: pelaku berpura-pura sebagai influencer internasional dan menawarkan peluang kerja sama atau investasi dengan imbal hasil tinggi.

“Beberapa korban dari Jakarta dan Surabaya mengaku berinteraksi lewat video call yang tampak asli. Padahal itu hasil manipulasi visual,” ujar Brigjen Pol Adi Putra, juru bicara Bareskrim Polri.

Penyidik menyebut sindikat ini berbasis di Hong Kong dengan server utama di Eropa Timur.
Mereka menggunakan dompet digital anonim, VPN chain, dan sistem crypto laundering untuk memindahkan uang hasil kejahatan ke luar negeri.


Dunia Maya yang Tak Lagi Bisa Dipercaya

Kejadian ini memicu kekhawatiran global.
Ketika deepfake mencapai tingkat realisme seperti manusia, batas antara nyata dan palsu semakin kabur.
Apa yang dulu hanya fiksi dalam film Mission: Impossible kini jadi kenyataan sehari-hari.

Para ahli menyebut fenomena ini sebagai era post-truth digital, di mana realitas bisa direkayasa dengan sempurna, dan kepercayaan manusia menjadi mata uang yang paling rapuh.

“Kita memasuki zaman di mana kejujuran bisa dikalahkan oleh algoritma,” tulis kolumnis teknologi Ethan Chen dalam The Guardian.

Ironisnya, teknologi deepfake sebenarnya punya potensi besar dalam dunia film, pendidikan, dan seni.
Namun tanpa regulasi dan etika, ia justru menjadi alat untuk kejahatan dan manipulasi psikologis.


Antara Inovasi dan Kejahatan

AI generatif seperti ChatGPT, Midjourney, dan Runway AI awalnya diciptakan untuk membantu kreativitas manusia.
Namun di tangan yang salah, kemampuan menciptakan gambar dan suara realistis berubah menjadi alat kriminal super-efisien.

Peneliti dari Cybersecurity Ventures memperkirakan bahwa kerugian akibat kejahatan berbasis deepfake akan menembus USD 25 miliar secara global pada 2026.
Di Asia Tenggara, Indonesia dan Filipina termasuk negara paling rentan karena tingginya penggunaan media sosial dan rendahnya literasi digital.

“Deepfake bukan lagi soal teknologi, tapi soal psikologi. Ia menipu bukan lewat data, melainkan lewat emosi,” ujar Prof. Sri Handayani, dosen keamanan siber di ITB.


Korban: Antara Malu dan Trauma

Sebagian besar korban enggan melapor karena malu.
Mereka merasa “bodoh” telah percaya pada wajah yang ternyata palsu.
Namun psikolog forensik menilai, hal ini bukan karena kebodohan, melainkan karena deepfake meniru tanda-tanda kepercayaan manusia secara sempurna.

Kontak mata, intonasi, kedipan, dan senyum adalah bahasa tubuh yang secara biologis kita asosiasikan dengan kejujuran.
Ketika semua itu bisa direkayasa oleh AI, otak manusia pun tertipu oleh refleks alaminya sendiri.

“Korban bukan tertipu karena tidak pintar, tapi karena otaknya merespons sinyal kepercayaan yang dihasilkan mesin,” jelas psikolog Dr. Rima Anindita dari Universitas Airlangga.


Regulasi Masih Tertinggal

Sayangnya, hukum belum siap menghadapi realitas baru ini.
Banyak negara, termasuk Indonesia, masih menggunakan pasal penipuan konvensional yang tidak secara spesifik mengatur pemalsuan identitas berbasis AI.

Rancangan Undang-Undang Keamanan Siber dan Kecerdasan Buatan sebenarnya sudah mencakup larangan penggunaan AI untuk manipulasi identitas, namun belum disahkan hingga kini.

“Kasus deepfake ini seharusnya menjadi alarm nasional. Kita butuh hukum yang melindungi identitas digital warga,” tegas Laily Rahman, peneliti dari Indonesia Cyber Policy Center.

Di Eropa, beberapa negara sudah mulai menerapkan label “AI-generated content” wajib untuk gambar dan video publik.
Namun di Asia Tenggara, regulasi semacam ini masih jarang diterapkan secara efektif.


Mengembalikan Kepercayaan di Era AI

Deepfake mungkin tidak bisa dihapus, tapi bisa dihadapi dengan kesadaran baru.
Para ahli menekankan pentingnya literasi digital dan deteksi mandiri.
Masyarakat harus belajar mengenali tanda-tanda visual aneh, seperti pergerakan mata tidak alami, bayangan wajah yang tidak konsisten, atau sinkronisasi bibir yang sedikit tertinggal.

Selain itu, publik diimbau tidak mudah percaya pada figur populer yang tiba-tiba menawarkan kerja sama, investasi, atau hubungan personal.

“Kita harus kembali skeptis pada apa yang tampak sempurna di layar. Dunia digital kini penuh topeng, dan sebagian topeng itu punya niat jahat,” ujar Rizal Fahrezi, analis keamanan siber dari Digital Forensic Asia.


Kesimpulan: Dunia Baru, Bahaya Baru

Kasus penipuan deepfake Rp64 miliar ini menegaskan satu hal:
realitas digital telah berubah, dan kejahatan ikut berevolusi.

Di masa depan, mungkin kita tak lagi bisa mempercayai mata sendiri.
Kebenaran harus diverifikasi, bukan diasumsikan.
Dan di tengah kemajuan teknologi yang begitu cepat, akal sehat dan kewaspadaan menjadi benteng terakhir manusia.

“AI bisa meniru wajah, suara, bahkan emosi — tapi tidak bisa meniru nurani,” kata Prof. Sri Handayani, menutup diskusinya dengan nada tegas.

Leave a Reply

Your email address will not be published. Required fields are marked *