Awas, ChatGPT Bisa Dipakai Buat Penipuan Bank Lewat Suara
Penipuan yang menggunakan teknologi suara kini menjadi masalah yang merugikan hingga jutaan dolar.
Menurut sebuah penelitian, antarmuka pemrograman aplikasi (API) suara real-time OpenAI untuk ChatGPT-4o, yang merupakan chatbot LLM canggih, memiliki potensi untuk disalahgunakan dalam penipuan finansial, seperti pembobolan bank, dengan tingkat keberhasilan yang bervariasi dari rendah hingga sedang.
ChatGPT-4o merupakan model AI terbaru dari OpenAI yang menawarkan berbagai penyempurnaan, antara lain integrasi antara input dan output berupa teks, suara, serta gambar.
-
Mengapa Kotak Suara Pemilu Penting? Kotak suara menjadi salah satu perlengkapan pemungutan suara pada Pemilu Anggota DPR, DPD, DPRD Provinsi, DPRD Kabupaten/Kota, sebagaimana dimaksud dalam Pasal 142 ayat (1) huruf a Undang-Undang Nomor 10 Tahun 2008 tentang Pemilu Anggota DPR, DPD, DPRD Provinsi dan DPRD Kabupaten/Kota.
-
Kapan surat suara pemilu digunakan? Pada hari pemilu, pemilih memasukkan surat suara mereka ke dalam kotak suara atau melalui proses penghitungan elektronik, tergantung pada sistem pemilu yang diterapkan di suatu negara.
-
Bagaimana suara ketukan pintu terekam? Rekaman CCTV Pada awal video, terlihat sebuah rekaman CCTV yang memperlihatkan suasana teras rumah warga. Waktu di kamera CCTV menunjukkan angka 03.08 WIB dan tak ada seorang pun di luar.
-
Mengapa ChatGPT diibaratkan seperti pisau bermata dua? "Ada plus dan minusnya, pisau bermata dua. (Jurnalis) tak akan pernah tergantikan karena unsur mendefinisikan kepentingan publik meraba perasaan publik itu kan membutuhkan manusia. Tidak bisa dikerjakan si mesin, menganalisis, lagi-lagi media itu membutuhkan independensi,"
-
Kapan kata penutup pidato penting? Seperti diketahui, bahwa ragam acara seperti seminar, perpisahan, pernikahan hingga acara formal lain membutuhkan sebuah penutup pidato yang penuh kesan yang membuat seluruh rangkaian acara berkesan.
-
Kapan suara kicauan burung puter pelung sering terdengar? Burung puter yang merupakan salah satu jenis burung penyanyi, sering kali terdengar berkicau pada malam hari.
Dengan adanya fitur-fitur inovatif ini, OpenAI telah mengimplementasikan sejumlah perlindungan untuk mendeteksi dan mencegah penyebaran konten berbahaya, termasuk upaya untuk mereplikasi suara secara ilegal.
Mengutip dari Bleeping Computer pada Senin (4/11), penipuan yang berbasis suara telah menjadi masalah yang menimbulkan kerugian hingga jutaan dolar. Kemunculan teknologi deepfake dan alat text-to-speech yang didukung AI dapat memperburuk kondisi ini.
Seperti yang dijelaskan oleh para peneliti dari UIUC, Richard Fang, Dylan Bowman, dan Daniel Kang dalam makalah mereka, alat-alat teknologi baru yang saat ini tersedia tanpa batasan tidak dilengkapi dengan perlindungan yang memadai untuk mencegah penyalahgunaan oleh penjahat dunia maya (hacker) dan penipu.
Alat-alat ini memungkinkan perancangan dan pelaksanaan operasi penipuan berskala besar dengan sedikit atau tanpa intervensi manusia, hanya dengan biaya token untuk menghasilkan suara.
Dalam makalah penelitian ini, peneliti mengkaji berbagai jenis penipuan, termasuk transfer bank, pencurian kartu hadiah, transfer kripto, serta pencurian kredensial akun media sosial atau Gmail.
- Makin Banyak Orang Langganan ChatGPT, Habiskan Duit Segini Besar
- Transaksi Pakai ATM Makin Turun, 53,3 Juta Orang Pilih Bayar Pakai QRIS
- Ditangkap, Perampok Agen Bank Pelat Merah yang Kenakan Seragam Polantas Ternyata Satpam
- Waspada Penipuan Modus Surat Tilang dan Bukti Kirim Barang, Salah Klik Uang Ratusan Juta di Bank Bisa Hilang
Agen AI yang terlibat dalam penipuan ini memanfaatkan alat otomatisasi ChatGPT-4o yang dilengkapi dengan kemampuan suara untuk menjelajahi halaman, menginput data, dan mengelola kode autentikasi dua faktor serta instruksi khusus terkait penipuan.
Karena GPT-4o kadang-kadang menolak untuk menangani data sensitif seperti kredensial, peneliti menerapkan teknik jailbreaking yang sederhana dan cepat untuk mengatasi batasan tersebut.
Alih-alih melibatkan individu asli, peneliti menunjukkan cara mereka berinteraksi secara manual dengan agen AI, berperan sebagai korban yang mudah tertipu, dan menggunakan situs web seperti Bank of America untuk memverifikasi transaksi yang berhasil.
"Kami mengerahkan agen pada sebagian kecil penipuan umum. Kami mensimulasikan penipuan dengan berinteraksi secara manual dengan agen suara, memainkan peran korban yang mudah percaya," jelas Kang dalam sebuah posting blog mengenai penelitian tersebut.
"Untuk menentukan keberhasilan, kami mengonfirmasi secara manual apakah tujuan akhir tercapai pada aplikasi atau situs web yang sebenarnya. Misalnya, kami menggunakan Bank of America untuk penipuan transfer bank dan mengonfirmasi bahwa uang benar-benar ditransfer. Namun, kami tidak mengukur kemampuan persuasi agen-agen ini," paparnya.
Penipuan Biaya Rendah
Tingkat keberhasilan dari berbagai upaya penipuan berkisar antara 20 hingga 60%. Setiap percobaan dapat memerlukan hingga 26 tindakan peramban dan memakan waktu hingga 3 menit, terutama dalam skenario yang paling kompleks.
Penipuan melalui transfer bank dan peniruan agen IRS sering kali mengalami kegagalan, yang sebagian besar disebabkan oleh kesalahan dalam transkripsi atau navigasi situs yang rumit.
Di sisi lain, pencurian kredensial dari Gmail menunjukkan tingkat keberhasilan sebesar 60 persen, sedangkan untuk transfer cryptocurrency dan pencurian kredensial dari Instagram hanya berhasil 40 persen.
Mengenai biaya, para peneliti menemukan bahwa untuk melakukan penipuan ini relatif murah, dengan biaya rata-rata USD 0,75 untuk setiap kasus yang berhasil.
Namun, penipuan transfer bank yang lebih rumit menghabiskan biaya rata-rata sebesar USD 2,51. Meskipun biaya tersebut lebih tinggi, angka ini tetap tergolong rendah jika dibandingkan dengan potensi keuntungan yang bisa diperoleh dari aktivitas penipuan ini.
OpenAI menjelaskan bahwa model terbaru mereka, o1 (yang saat ini dalam tahap pratinjau), dirancang untuk mendukung penalaran yang lebih kompleks dan memiliki pertahanan yang lebih baik terhadap penyalahgunaan. Hal ini menunjukkan komitmen mereka untuk terus meningkatkan kemampuan ChatGPT dalam mencegah upaya yang disengaja untuk menyalahgunakannya, tanpa mengorbankan kreativitas dan manfaat yang ditawarkan.
"Kami terus-menerus membuat ChatGPT lebih baik dalam menghentikan upaya yang disengaja untuk mengelabuinya, tanpa kehilangan manfaat atau kreativitasnya. Model penalaran o1 terbaru kami adalah yang paling mampu dan paling aman, jauh mengungguli model sebelumnya dalam melawan upaya yang disengaja untuk menghasilkan konten yang tidak aman," klaim Juru Bicara OpenAI
OpenAI juga menekankan bahwa penelitian dari UIUC berkontribusi dalam pengembangan ChatGPT agar lebih efektif dalam mencegah penggunaan yang berbahaya. Mereka selalu berusaha untuk menemukan cara baru dalam meningkatkan ketahanan sistem mereka.
Perlu dicatat bahwa GPT-4o telah mengimplementasikan berbagai langkah untuk menghindari penyalahgunaan, salah satunya adalah membatasi pembuatan suara hanya pada suara yang telah disetujui sebelumnya, sehingga dapat mencegah peniruan identitas.
Model o1-preview menunjukkan hasil yang jauh lebih baik dalam evaluasi keamanan jailbreak yang dilakukan oleh OpenAI, yang mengukur seberapa efektif model tersebut dalam menahan pembuatan konten yang tidak aman sebagai respons terhadap perintah yang bersifat antagonis.
Skor yang diperoleh adalah 84 persen untuk o1-preview dibandingkan dengan 22 persen untuk GPT-4o. Ketika diuji dengan serangkaian evaluasi keamanan baru yang lebih menantang, o1-preview juga mencatat skor yang lebih tinggi, yaitu 93 persen dibandingkan 71 persen untuk GPT-4o.