Awas, ChatGPT Bisa Dipakai Buat Penipuan Bank Lewat Suara
Penipuan yang menggunakan teknologi suara kini menjadi masalah yang merugikan hingga jutaan dolar.
Menurut sebuah penelitian, antarmuka pemrograman aplikasi (API) suara real-time OpenAI untuk ChatGPT-4o, yang merupakan chatbot LLM canggih, memiliki potensi untuk disalahgunakan dalam penipuan finansial, seperti pembobolan bank, dengan tingkat keberhasilan yang bervariasi dari rendah hingga sedang.
ChatGPT-4o merupakan model AI terbaru dari OpenAI yang menawarkan berbagai penyempurnaan, antara lain integrasi antara input dan output berupa teks, suara, serta gambar.
-
Siapa pelaku penipuan? Kelima tersangka tersebut telah dilakukan penahanan sejak tanggal 26 April 2024 dan terhadap satu WN Nigeria sudah diserahkan kepada pihak imigrasi untuk diproses lebih lanjut,' tuturnya.
-
Apa bahaya ChatGPT untuk berita? Menurutnya, kecerdasan buatan dapat berakibat pada pemberitaan yang berujung disinformasi, apabila data yang diberikan salah dan tidak disiapkan dengan baik.
-
Apa yang dilakukan dengan ChatGPT? Dalam postingan Tiktok yang diunggah oleh akun @/dillaressss, menunjukkan bahwa ia menggunakan Chat GPT untuk untuk melakukan percakapan seolah ia sedang berbicara kepada sang Ibu yang sudah meninggal.
-
Siapa yang menggunakan ChatGPT? Dalam postingan Tiktok yang diunggah oleh akun @/dillaressss, menunjukkan bahwa ia menggunakan Chat GPT untuk untuk melakukan percakapan seolah ia sedang berbicara kepada sang Ibu yang sudah meninggal.
-
Mengapa AI digunakan untuk menipu? 'Penipuan digital semakin canggih, terutama dengan maraknya penyalahgunaan teknologi AI,' kata Sati Rasuanto, Co-founder dan Presiden VIDA dalam keterangannya, Selasa (29/10).
-
Apa saja jenis aplikasi penipuan? Penipuan dapat menyebabkan kerugian finansial, pencurian identitas, dan penyusupan informasi sensitif.
Dengan adanya fitur-fitur inovatif ini, OpenAI telah mengimplementasikan sejumlah perlindungan untuk mendeteksi dan mencegah penyebaran konten berbahaya, termasuk upaya untuk mereplikasi suara secara ilegal.
Mengutip dari Bleeping Computer pada Senin (4/11), penipuan yang berbasis suara telah menjadi masalah yang menimbulkan kerugian hingga jutaan dolar. Kemunculan teknologi deepfake dan alat text-to-speech yang didukung AI dapat memperburuk kondisi ini.
Seperti yang dijelaskan oleh para peneliti dari UIUC, Richard Fang, Dylan Bowman, dan Daniel Kang dalam makalah mereka, alat-alat teknologi baru yang saat ini tersedia tanpa batasan tidak dilengkapi dengan perlindungan yang memadai untuk mencegah penyalahgunaan oleh penjahat dunia maya (hacker) dan penipu.
Alat-alat ini memungkinkan perancangan dan pelaksanaan operasi penipuan berskala besar dengan sedikit atau tanpa intervensi manusia, hanya dengan biaya token untuk menghasilkan suara.
Dalam makalah penelitian ini, peneliti mengkaji berbagai jenis penipuan, termasuk transfer bank, pencurian kartu hadiah, transfer kripto, serta pencurian kredensial akun media sosial atau Gmail.
Agen AI yang terlibat dalam penipuan ini memanfaatkan alat otomatisasi ChatGPT-4o yang dilengkapi dengan kemampuan suara untuk menjelajahi halaman, menginput data, dan mengelola kode autentikasi dua faktor serta instruksi khusus terkait penipuan.
Karena GPT-4o kadang-kadang menolak untuk menangani data sensitif seperti kredensial, peneliti menerapkan teknik jailbreaking yang sederhana dan cepat untuk mengatasi batasan tersebut.
Alih-alih melibatkan individu asli, peneliti menunjukkan cara mereka berinteraksi secara manual dengan agen AI, berperan sebagai korban yang mudah tertipu, dan menggunakan situs web seperti Bank of America untuk memverifikasi transaksi yang berhasil.
"Kami mengerahkan agen pada sebagian kecil penipuan umum. Kami mensimulasikan penipuan dengan berinteraksi secara manual dengan agen suara, memainkan peran korban yang mudah percaya," jelas Kang dalam sebuah posting blog mengenai penelitian tersebut.
"Untuk menentukan keberhasilan, kami mengonfirmasi secara manual apakah tujuan akhir tercapai pada aplikasi atau situs web yang sebenarnya. Misalnya, kami menggunakan Bank of America untuk penipuan transfer bank dan mengonfirmasi bahwa uang benar-benar ditransfer. Namun, kami tidak mengukur kemampuan persuasi agen-agen ini," paparnya.
Penipuan Biaya Rendah
Tingkat keberhasilan dari berbagai upaya penipuan berkisar antara 20 hingga 60%. Setiap percobaan dapat memerlukan hingga 26 tindakan peramban dan memakan waktu hingga 3 menit, terutama dalam skenario yang paling kompleks.
Penipuan melalui transfer bank dan peniruan agen IRS sering kali mengalami kegagalan, yang sebagian besar disebabkan oleh kesalahan dalam transkripsi atau navigasi situs yang rumit.
Di sisi lain, pencurian kredensial dari Gmail menunjukkan tingkat keberhasilan sebesar 60 persen, sedangkan untuk transfer cryptocurrency dan pencurian kredensial dari Instagram hanya berhasil 40 persen.
Mengenai biaya, para peneliti menemukan bahwa untuk melakukan penipuan ini relatif murah, dengan biaya rata-rata USD 0,75 untuk setiap kasus yang berhasil.
Namun, penipuan transfer bank yang lebih rumit menghabiskan biaya rata-rata sebesar USD 2,51. Meskipun biaya tersebut lebih tinggi, angka ini tetap tergolong rendah jika dibandingkan dengan potensi keuntungan yang bisa diperoleh dari aktivitas penipuan ini.
OpenAI menjelaskan bahwa model terbaru mereka, o1 (yang saat ini dalam tahap pratinjau), dirancang untuk mendukung penalaran yang lebih kompleks dan memiliki pertahanan yang lebih baik terhadap penyalahgunaan. Hal ini menunjukkan komitmen mereka untuk terus meningkatkan kemampuan ChatGPT dalam mencegah upaya yang disengaja untuk menyalahgunakannya, tanpa mengorbankan kreativitas dan manfaat yang ditawarkan.
"Kami terus-menerus membuat ChatGPT lebih baik dalam menghentikan upaya yang disengaja untuk mengelabuinya, tanpa kehilangan manfaat atau kreativitasnya. Model penalaran o1 terbaru kami adalah yang paling mampu dan paling aman, jauh mengungguli model sebelumnya dalam melawan upaya yang disengaja untuk menghasilkan konten yang tidak aman," klaim Juru Bicara OpenAI
OpenAI juga menekankan bahwa penelitian dari UIUC berkontribusi dalam pengembangan ChatGPT agar lebih efektif dalam mencegah penggunaan yang berbahaya. Mereka selalu berusaha untuk menemukan cara baru dalam meningkatkan ketahanan sistem mereka.
Perlu dicatat bahwa GPT-4o telah mengimplementasikan berbagai langkah untuk menghindari penyalahgunaan, salah satunya adalah membatasi pembuatan suara hanya pada suara yang telah disetujui sebelumnya, sehingga dapat mencegah peniruan identitas.
Model o1-preview menunjukkan hasil yang jauh lebih baik dalam evaluasi keamanan jailbreak yang dilakukan oleh OpenAI, yang mengukur seberapa efektif model tersebut dalam menahan pembuatan konten yang tidak aman sebagai respons terhadap perintah yang bersifat antagonis.
Skor yang diperoleh adalah 84 persen untuk o1-preview dibandingkan dengan 22 persen untuk GPT-4o. Ketika diuji dengan serangkaian evaluasi keamanan baru yang lebih menantang, o1-preview juga mencatat skor yang lebih tinggi, yaitu 93 persen dibandingkan 71 persen untuk GPT-4o.