Wanita Ini Kaget Fotonya Tersebar di Situs Porno, Ternyata Ini Penyebabnya
seorang perempuan asal Perth Australia buka suara bahwa dirinya jadi korban kekejaman teknologi deepfake. Wanita berusia 28 tahun ini menemukan video porno deepfake berwajah dirinya 10 tahun lalu.
Federal Bureau Investigation (FBI) AS baru-baru ini memperingatkan agar masyarakat lebih berhati-hati dalam menggunakan media sosial. Salah satunya mengunggah foto diri di media sosial.
Sebab belakang FBI menyatakan banyak mendapatkan laporan kejahatan sekstorsi. Sekstorsi ini merupakan kejahatan yang sangat sulit dilawan. Sebab, penjahat siber melakukan tindakan pemerasan dengan ancaman menyebarkan konten seksual korban. Tujuannya agar mendapatkan keuntungan.
-
Apa yang dibayangkan oleh AI? Hasilnya sungguh memesona. Coldplay memainkan musik mereka di tengah latar belakang Gunung Bromo yang diselimuti kabut, menambah pesona dan kemegahan dari acara tersebut. Ribuan penonton terlihat memadati area tersebut.
-
Kapan AI memprediksi wajah manusia akan berubah? AI yakin bahwa ini adalah gambaran tentang bagaimana manusia akan terlihat 1.000 tahun mendatang.
-
Kenapa banyak orang khawatir dengan AI Generatif? AI Generatif seperti "deepfake" telah menjadi senjata baru untuk membuat disinformasi dan hoax yang sangat dikhawatirkan banyak kalangan, termasuk oleh media massa dan pemerintah di banyak negara.
-
Bagaimana AI memprediksi wajah manusia di masa depan? AI memvisualisasikan manusia masa depan dengan wajah yang tertutup oleh jaringan kabel dan motor berputar.
-
Apa yang ditemukan para ahli dengan menggunakan AI? Para ahli dari Universitas Bradford, Nottingham, dan Stanford telah mengembangkan algoritma analisis khusus untuk membuat sebuah penemuan: salah satu objek dalam lukisan karya Raffaello Sanzio/Raphael ternyata tidak dilukis oleh sang maestro.
-
Apa yang digambarkan oleh AI dalam postingan Reddit tersebut? Berikut adalah gambar yang dihasilkan AI membuat kostum DC Universe versi low budget. Ada yang berandai-andai bagaimana jadinya karakter-karakter film Hollywood dibuat di Bollywood.
Dengan bantuan generator gambar AI dan deepfake, penipu dapat dengan mudah membuat gambar palsu menggunakan wajah korban untuk dijadikan konten foto atau video seksual. Apa yang diperingatkan FBI itu bukan isapan jempol.
Dilaporkan WestHawaiToday, Rabu (14/6), seorang perempuan asal Perth Australia buka suara bahwa dirinya jadi korban kekejaman teknologi deepfake. Ia adalah Noelle Martin. Wanita berusia 28 tahun ini menemukan video porno deepfake berwajah dirinya 10 tahun lalu.
Ia kemudian penasaran untuk mencari detail video itu melalui Google. Ternyata video porno hoaks itu benar-benar ada di mesin pencarian.
Hingga hari ini, Noelle mengatakan tidak tahu siapa yang membuat gambar maupun video palsu dirinya melakukan hubungan seksual.
Ia mencurigai seseorang mungkin mengambil gambar yang diposting di halaman media sosialnya atau di tempat lain dan mengubahnya menjadi konten porno.
Noelle menyebut dirinya sudah menghubungi situs web porno yang berbeda selama beberapa tahun demi menghapus gambar tersebut.
Sayangnya usahanya itu belum berbuah manis. Beberapa website yang ia kontak menanggapi permintaannya. Sayangnya, tak lama kemudian foto maupun videonya itu muncul lagi di situs lain.
"Kita tak akan pernah menang melawan ini. Jejak digital akan selalu ada meski itu tidak benar," ujar dia.
Oleh karena itu, FBI memberikan beberapa hal yang perlu diperhatikan pengguna media sosial. sosial media. Berikut saran dari FBI:
- Hati-hati dalam memposting gambar dan informasi pribadi secara online
- Tingkatkan pengaturan privasi Anda di aplikasi media sosial untuk melindungi foto dari pengintaian
- Hati-hati saat mengirim gambar ke orang yang tidak dikenali secara langsung