Ahli Misinformasi Mengakui Menggunakan AI dalam Dokumen Hukum
Ahli misinformasi Jeff Hancock mengakui penggunaan ChatGPT dalam dokumen hukum terkait teknologi deepfake.
Jeff Hancock, seorang ahli misinformasi dan pendiri Stanford Social Media Lab, mengakui bahwa ia menggunakan ChatGPT untuk membantu mengorganisir kutipan dalam dokumen hukum yang ia ajukan.
Mengutip The Verge, Kamis (5/12), pengakuan ini muncul setelah kritik mengenai adanya kesalahan dalam kutipan yang disebut 'hallucinations' dan menimbulkan keraguan terhadap keandalan dokumen tersebut.
-
Siapa KH Ahmad Hanafiah? KH Ahmad Hanafiah menjadi salah satu sosok paling berpengaruh di Kota Lampung yang juga seorang ulama berpengaruh di sana.
-
Kenapa Hanan diperiksa KPK? Dirinya pun dicecar penemuan sejumlah uang pada saat penyidik KPK menggeledah rumah CEO PT Mulia Knitting Factory itu. "Pada saksi, tim Penyidik mengkonfirmasi antara lain kaitan temuan sejumlah uang saat dilakukan penggeledahan di rumah kediamannya," kata Ali kepada wartawan, Selasa (26/3).
-
Kapan Lukman Hakim meninggal? Lukman Hakim meninggal di Bonn pada 20 Agustus 1966.
-
Kapan Habib Muhammad bin Idrus Al Habsyi meninggal? Makam Habib Muhammad meninggal di Kota Surabaya pada tahun 1917 Masehi.
-
Apa yang dilakukan KH Ahmad Hanafiah untuk bangsa? Ketika Indonesia merdeka pada tanggal 17 Agustus 1945, berita ini baru tiba di Lampung pada tanggal 24 Agustus 1945. Saat itu juga mulailah dibentuk ragam organisasi atau badan perjuangan untuk mempertahankan Indonesia. KH Ahmad Hanafiah pun terpilih untuk menjabat sebagai Ketua Laskar Hizbullah di Sukadana setelah kemerdekaan.
-
Dimana peristiwa pemukulan terhadap Hanafi terjadi? Peristiwa itu terjadi saat pekan Porprov Jawa Timur 2023 di Sidoarjo.
Hancock mengajukan afidavit tersebut untuk mendukung undang-undang Minnesota terkait penggunaan teknologi deepfake dalam memengaruhi pemilihan, yang saat ini sedang ditantang di pengadilan federal oleh Christopher Khols, seorang YouTuber konservatif, dan Anggota DPR Minnesota, Mary Franson.
Kritik Terhadap Keandalan Dokumen Hukum
Setelah penemuan bahwa dokumen Hancock mengandung kutipan yang tidak ada, tim pengacara Khols dan Franson menyatakan bahwa dokumen tersebut tidak dapat diandalkan dan meminta agar dokumen itu dikeluarkan dari pertimbangan. Mereka menilai bahwa kesalahan dalam kutipan dapat memengaruhi substansi dari dokumen hukum yang diajukan.
Hancock menjelaskan bahwa ia menggunakan Google Scholar dan GPT-4o untuk mengidentifikasi artikel yang relevan dengan afidavit. Ia menggabungkan pengetahuan yang sudah ada dengan penelitian baru, tetapi tidak menyadari bahwa alat tersebut menghasilkan kesalahan kutipan.
Pernyataan Hancock tentang Kesalahan Kutipan
Dalam pernyataan selanjutnya yang diajukan minggu lalu, Hancock mengakui bahwa ia menggunakan ChatGPT untuk menyusun afidavit, tetapi menegaskan bahwa ia tidak menggunakannya untuk menulis isi dokumen. Ia menulis, “Saya menulis dan meninjau substansi dari deklarasi, dan saya berdiri teguh di belakang setiap klaim yang dibuat dalamnya.”
Hancock juga menekankan bahwa semua klaim dalam dokumen tersebut didukung oleh penelitian ilmiah terbaru dan mencerminkan pandangannya sebagai seorang ahli mengenai dampak teknologi AI terhadap misinformasi dan efek sosialnya.
Penjelasan Mengenai 'Hallucinations'
Hancock mengakui bahwa kesalahan kutipan yang terjadi, yang dikenal sebagai 'hallucinations', muncul ketika ia meminta GPT-4o untuk membuat daftar kutipan. Ia tidak bermaksud untuk menyesatkan pengadilan atau penasihat hukum lainnya dan merasa menyesal atas kebingungan yang ditimbulkan oleh kesalahan tersebut.
“Saya tidak bermaksud untuk menyesatkan Pengadilan atau penasihat,” tulis Hancock dalam pengajuan terbarunya. “Saya menyatakan penyesalan yang tulus atas kebingungan yang mungkin ditimbulkan.”
Implikasi dari Kasus Ini
Kasus ini menyoroti tantangan yang dihadapi oleh pengacara dan ahli di era digital, terutama ketika menggunakan alat berbasis AI untuk membantu dalam pekerjaan mereka. Penggunaan teknologi seperti ChatGPT dapat meningkatkan efisiensi, tetapi juga dapat memperkenalkan risiko kesalahan yang berpotensi merusak kredibilitas dokumen hukum.
Dengan semakin banyaknya alat AI yang tersedia, penting bagi para profesional untuk memahami keterbatasan dan potensi kesalahan dalam penggunaan teknologi ini. Hancock menegaskan bahwa meskipun ada kesalahan, substansi dari deklarasi tetap valid dan relevan.