Categories
Hiburan

Beredar Komentar Menjijikkan Para Pelaku Pornografi Deepfake Korea, Ada dari Kampus Top 10

SEOUL – Sejumlah komentar tak masuk akal dari pelaku deepfake porn yang beredar di Korea Selatan beredar di media sosial.

Komentar preman laki-laki atau anggota grup chat Telegram sepertinya tidak menunjukkan empati sama sekali. Beberapa dari mereka bahkan berpendapat bahwa perempuan terlalu menuntut agar hak asasi mereka dihormati.

Skandal porno Korea Selatan mulai tersiar ke publik sekitar 25 Agustus. Ini menjadi kasus pelecehan seksual berikutnya di Korea Selatan. Salah satu wabah pornografi reputasi palsu terbesar yang pernah terjadi pada tahun 2018-2020 dan disebut “Ruang NTH”.

Kasus tersebut pun diangkat menjadi film dokumenter Netflix bertajuk “Neraka Cyber: Mengungkap Teror Cyber”. Film ini akan dirilis pada tahun 2022.

Dalam kasus NTH Room terbaru, pelaku dan pelanggan Telegram, termasuk anak sekolah, pelajar, guru, dan personel militer, mengirimkan foto perempuan yang mereka kenal. Foto tersebut kemudian digunakan untuk membuat video deepfake yang berisi konten pornografi.

Meski kasusnya sudah terekspos ke dunia internasional, namun pelakunya nampaknya tidak menunjukkan penyesalan. Mereka bahkan melontarkan saran-saran menjijikkan kepada korbannya.

Dalam salah satu foto yang diunggah akun ini

“Hanya wanita cantik yang terburu-buru. Wanita jelek jangan khawatir hahahaha,” tulisnya dalam sekejap yang telah dihapus oleh pengguna aslinya.

Komentar yang konon berasal dari seorang mahasiswa di kampus elite Sungkyunkwan pun memicu kemarahan di kalangan netizen.

“Aku beberapa kali nonton dan lama-kelamaan bosan. Kalau jadi bahan porno, banggalah karena itu tandanya kamu seksi,” tulisnya.

Foto: X @michinarchive

Di postingan lain yang dibagikan akun X @LESBOSS_K, ada yang menulis: “Jujur, saya tidak mengerti kenapa perempuan-perempuan ini tiba-tiba merasa punya hak asasi manusia. Menjijikkan sekali.”

Penyerang lain menulis di aplikasi perpesanan pribadi: “Para korban ini berbicara omong kosong. Normal atau tidak, itu bukanlah sesuatu yang harus Anda pedulikan.”

Foto: X@LESBOSS_K

Yang lain menulis: “Mereka menginginkan hak asasi manusia dan diperlakukan seperti manusia.”

Presiden Korea Selatan Yoon Seok-yeol telah memerintahkan penyelidikan menyeluruh terhadap kasus pornografi deepfake terbaru ini.

Categories
Teknologi

Waspada Elon Musk Palsu, Perempuan Korea Tertipu Ratusan Juta

JAKARTA – Nama bos Tesla, Elon Musk, digunakan untuk menipu seorang wanita kaya raya di Korea Selatan. Elon Musk palsu mengatakan dia bisa membuat wanita lebih besar dengan membantunya menginvestasikan uang.

Pelapor mengklaim Musk berkencan dengan seorang wanita di Instagram. Tersangka mengaku melakukan kontak acak dengan korbannya. Seorang wanita asal Korea Selatan juga mengaku kehilangan Rp 810 juta.

“17 Juli lalu, Musk menambahkan saya sebagai teman di Instagram. Meski saya sangat menyukai Musk setelah membaca biografinya, awalnya saya ragu,” kata wanita yang tak menolak menyebutkan nama aslinya itu kepada televisi Korea Selatan. stasiun KBS dalam sebuah wawancara di “In Depth 60 Minutes” pada bulan April. 19.

Korea Herald memberitakan pada Kamis (25/4/2024) bahwa korban mulai percaya dirinya sedang berbicara dengan Elon Musk yang asli setelah orang yang diajak bicara mengirimkan foto ID Musk dan foto dirinya di tempat kerja. “Perampok itu bercerita tentang anak-anaknya dan menaiki helikopter untuk bekerja di Tesla atau Space X,” kata wanita itu.

Elon Musk juga merilis informasi tentang pertemuan Musk dengan Presiden Korea Selatan Yoon Suk-yeol pada April 2023. Penipu itu menyuruh Yoon kepada Musk untuk membangun Gigafactory Tesla di Seoul dan Jeju.

“Musk juga berkata ‘Aku mencintaimu, tahukah kamu?’ Kami sedang melakukan panggilan video,” kata wanita itu, merujuk pada panggilan video yang dipalsukan Musk.

Wanita tersebut mengatakan bahwa perampok tersebut akhirnya mengizinkan dia mentransfer uang tersebut ke rekening bank yang menurutnya milik salah satu karyawan Korea miliknya. Selingkuh atas nama cinta adalah masalah serius di Amerika. Menurut Komisi Perdagangan Federal, penipu amal telah menerima Rp 21 miliar dari korban pada tahun 2022.

Ini juga bukan pertama kalinya seseorang berharap menjadi terkenal atau kaya dengan menggunakan nama Musk. Di Tiongkok, doppelgänger Musk bernama Yilong Ma telah memposting video dirinya di TikTok.

Video tersebut menarik perhatian Elon Musk yang mempertanyakan apakah Ma itu nyata. “Saya ingin bertemu orang ini (jika dia nyata), sulit untuk membicarakan detail yang mendalam akhir-akhir ini,” kata Musk tentang Ma pada Mei 2022.

Categories
Teknologi

Microsoft Perkenalkan Teknologi AI Ubah Foto Jadi Video Berbicara Secara Langsung

bachkim24h.com, Jakarta – Microsoft Research Asia meluncurkan alat AI baru bernama VASA-1. AI ini dapat mengubah gambar seseorang beserta file audio yang ada hingga membuat wajah gambar tersebut berbicara secara real time.

Melansir Engadget, Senin (22/4/2024), VASA-1 mampu menciptakan bentuk wajah dan pergerakan kepala dari gambar yang dimunculkan. Tak hanya itu, AI ini juga bisa mencocokkan gerakan bibir dengan suara atau lagu yang Anda download serta gambar yang ingin dijadikan video.

Peneliti Microsoft menguji VASA-1 dengan memposting beberapa contoh produk yang dihasilkan AI ke halaman proyek mereka. Hasilnya, AI video ini sangat efektif

Meski pergerakan bibir dan kepala pada video hasil AI masih belum sesuai dengan radio yang diunggah, namun VASA-1 terus dikembangkan dan video hasil AI bisa tetap sama dengan video aslinya. .

Namun fitur AI pada VASA-1 disebut berpotensi disalahgunakan oleh orang yang tidak menaruh curiga untuk dengan mudah dan cepat membuat video deep fake.

Dalam hal ini, peneliti Microsoft sudah mengetahui hal tersebut. Oleh karena itu, mereka memutuskan bahwa Anda dapat menggunakan demo online, aplikasi, produk, menambahkan fungsionalitas atau penawaran atau penawaran, bergantung pada penggunaan teknologi ini.

Microsoft mengatakan VASA-1 dapat digunakan untuk meningkatkan pemerataan pendidikan, serta meningkatkan aksesibilitas bagi mereka yang mengalami kesulitan komunikasi dengan menyediakan aksesibilitas dalam bentuk avatar yang dapat diakses.

Namun, mereka tidak menyebutkan bahwa pelaku kejahatan berencana menerapkan kebijakan khusus untuk menggunakannya untuk tujuan jahat, seperti membuat skrip AI yang meniru manusia atau menyebarkan informasi palsu.

Menurut siaran pers yang menyertai pengumuman tersebut, VASA-1 dilatih pada kumpulan data VoxCeleb2, yang berisi lebih dari satu juta kata dari 6.112 selebriti dari video YouTube.

Di sisi lain, penyalahgunaan AI dapat mengakibatkan penyebaran kejahatan bahkan mengancam perekonomian.

Forum Ekonomi Dunia (WEF) menyebutkan bahwa masalah terbesar perekonomian dunia tahun ini adalah isu kebohongan atau disinformasi yang diciptakan oleh kecerdasan buatan (AI). Menurut mereka, hal ini dapat mengancam, melemahkan demokrasi, dan memecah belah masyarakat.

Berdasarkan survei terhadap 1.500 pakar, pemimpin bisnis, dan pembuat kebijakan, laporan tersebut dirilis menjelang pertemuan tahunan para eksekutif senior dan pemimpin dunia di Davos, Swiss.

Studi tersebut menunjukkan bahwa pesatnya kemajuan teknologi telah menyebabkan munculnya masalah baru, dengan menyebutkan misinformasi dan disinformasi sebagai masalah terbesar dalam dua tahun ke depan.

Para peneliti memperingatkan bahwa munculnya chatbot AI buatan seperti ChatGPT tidak akan memperlambat pengembangan kecerdasan buatan kompleks yang digunakan untuk melibatkan sekelompok orang.

Caroline Klint, Pemimpin Manajemen Risiko di Marsh, mengatakan AI dapat digunakan oleh pihak yang tidak bermoral untuk menciptakan informasi palsu dan memengaruhi perilaku masyarakat.

“Masyarakat bisa menjadi lebih tercemar karena verifikasi kebenaran menjadi lebih sulit. Informasi palsu juga dapat digunakan untuk menimbulkan pertanyaan tentang legitimasi pemerintah terpilih, yang dapat mempengaruhi proses pemerintahan dan semakin mempolarisasi masyarakat,” kata Clint kepada voanews. com dari situsnya, pada Sabtu (20/4/2024).

Di sisi lain, terdapat penelitian yang menunjukkan bahwa organisasi media tidak memiliki kebijakan terkait gambar yang dihasilkan AI.

Penelitian yang dipimpin oleh RMIT University ini juga melibatkan Washington State University dan QUT Center for Media Research. Mereka mewawancarai 20 editor foto dari 16 organisasi publik dan komersial di Eropa, Australia, dan Amerika Serikat mengenai pandangan mereka terhadap penciptaan AI di industri media.

Di antara 16 organisasi tersebut, lima karyawan dilarang membuat gambar menggunakan AI, tiga orang dilarang hanya membuat gambar grafis, dan satu orang dilarang membuat gambar yang dibuat dengan AI.

“Pembuat gambar ingin transparan kepada audiensnya saat menggunakan teknologi AI, namun organisasi media tidak dapat mengontrol perilaku masyarakat atau cara platform lain menampilkan informasi,” kata peneliti utama dan dosen senior RMIT, TJ Thomson.

“Sebagian besar organisasi media harus transparan dengan kebijakan mereka sehingga audiens dapat yakin bahwa konten dibuat atau diedit sesuai dengan pedoman organisasi,” tambah Thomson.

Ia juga menambahkan bahwa ketika media mengembangkan kebijakan AI, mereka harus mempertimbangkan semua bentuk komunikasi, termasuk gambar dan video, dan memberikan pedoman khusus. Jadi, penggunaan AI generatif di redaksi dapat mencegah kebohongan dan disinformasi.

Categories
Teknologi

Penipuan Deepfake AI Bikin Resah, Kominfo Ingatkan Masyarakat Tentang Hal Ini

bachkim24h.com, Jakarta – Maraknya penipuan dengan menggunakan teknologi palsu menimbulkan kekhawatiran di industri bisnis di Indonesia. Kementerian Komunikasi dan Informatika (Kominfo) mengingatkan warga akan pentingnya edukasi mengenai teknologi ini agar tidak menjadi korban.

Penipuan adalah kejahatan yang menggunakan teknologi untuk membuat video atau suara yang tampak nyata.

Direktur Senior Aplikasi IT Kominfo Semuel Abrijani Pangerapan menyoroti perkembangan penyalahgunaan AI buatan yang semakin marak.

“Dampak dari produk palsu sangat luas, banyak terjadi kasus penipuan dalam penggunaannya, contoh penipuan yang serius dalam bisnis adalah penggunaan penipuan yang mendalam untuk membuat karyawan atau pimpinan perusahaan menipu karyawan lain untuk menuruti perintah penjahat, kata Semuel dalam acara peluncuran white paper VIDA Deepfake Shield, Rabu (24/4/2024).

Meski Kominfo belum menemukan adanya kasus penipuan yang melibatkan kecerdasan buatan di industri bisnis Indonesia, penipuan berbasis AI jenis ini juga terjadi di negara lain.

Semuel mengatakan penipuan yang melibatkan teknologi palsu pernah terjadi di Hong Kong dan Kominfo tidak ingin perusahaan yang berbisnis di Indonesia mengalami kejadian serupa.

Oleh karena itu, ia mengingatkan masyarakat dan dunia usaha di Indonesia untuk mewaspadai segala bentuk penipuan yang menggunakan teknologi kecerdasan buatan.

“Dalam mengidentifikasi kemungkinan adanya penipuan, kita harus cermat mencermati informasi audio dan video tersebut. Jika ada kejanggalan, kita harus waspada,” kata Semuel.

Mengingat data palsu menjadi ancaman serius terhadap keamanan data online perusahaan-perusahaan di Indonesia, Semuel mengingatkan perlunya pembaruan teknologi keamanan digital yang digunakan.

Pada peluncuran whitepaper VIDA Deepfake Shield, Semuel mengapresiasi upaya VIDA dalam memberikan solusi kepada perusahaan untuk meningkatkan perlindungan terhadap deepfake AI.

“Saya mengapresiasi inovasi VIDA sebagai salah satu Penyedia Layanan Otentikasi Elektronik (EPrE) Indonesia yang telah mengembangkan solusi pertahanan berlapis untuk mendeteksi dan memitigasi penipuan siber secara efektif,” kata Semuel.

Sekadar informasi, VIDA Deepfake Shield adalah solusi perlindungan multi-lapis canggih yang dirancang untuk mendeteksi dan memitigasi deepfake.

Perusahaan keamanan digital VIDA meluncurkan sistem keamanan baru. Sistem ini disebut-sebut bisa menjadi solusi untuk mencegah ancaman palsu dengan menggunakan teknologi kecerdasan buatan (AI).

Salah satu penyalahgunaan AI yang paling populer adalah kedalaman. Teknologi ini menggunakan kecerdasan buatan untuk meniru wajah dan suara seseorang secara realistis.

Niki Luhur, pendiri dan CEO VIDA Group, pada peluncuran buku putih: ‘APA ITU PALSU?: Apakah perusahaan di Indonesia siap memerangi penipuan dengan AI?’ menekankan potensi bahaya penyalahgunaan AI tingkat lanjut.

Niki berkata: “Teknologi deepfake mengantarkan era baru ancaman dunia maya yang dapat langsung menghancurkan kepercayaan dan keamanan dalam interaksi bisnis digital.”

Selain itu, ditemukan bahwa banyak perusahaan dan pedagang masih belum menyadari bahaya eksploitasi yang mendalam.

“Hal ini mengkhawatirkan karena banyak profesional yang beroperasi tanpa menyadarinya, sehingga rentan terhadap bentuk penipuan digital yang secara langsung dapat mengurangi kepercayaan dan keamanan,” kata Niki.

Penyalahgunaan deepfake dapat mengancam identitas seseorang dan meningkatkan risiko reputasi buruk terhadap keamanan bisnis.

Data VIDA menunjukkan 58 persen profesional di Indonesia belum mengenal teknologi AI, termasuk kecerdasan buatan. Oleh karena itu, VIDA kini memperkenalkan Deepfake Shield.

VIDA Deepfake Shield adalah pertahanan berlapis canggih yang dirancang untuk memungkinkan bisnis digital mendeteksi dan memitigasi penipuan serius.

Ini adalah fitur utama VIDA Deepfake Shield untuk melindungi perusahaan dari serangan Deepfake. Verifikasi Identitas Real-Time: Dengan memverifikasi identitas secara instan, VIDA memastikan bahwa transaksi tetap cepat dan aman, secara langsung mengatasi masalah yang ditimbulkan oleh pemalsuan. Integrasi yang mulus antar sistem: Dirancang dengan mempertimbangkan fleksibilitas, sistem ini mudah diintegrasikan ke dalam infrastruktur yang ada, meningkatkan keamanan tanpa mengganggu pengalaman pengguna. Perlindungan Tingkat Lanjut: Menggunakan teknologi canggih seperti biorecognition dan pencegahan serangan biometrik, VIDA Deepfake Shield memberikan perlindungan terhadap teknik penipuan digital tercanggih, termasuk deepfake, serangan phishing, dan serangan jarum.

Saat meluncurkan sistem keamanan ini, Sati Rasuanto, salah satu pendiri dan presiden VIDA, menyimpulkan pentingnya kesadaran akan ancaman besar ini.

“Peluncuran VIDA Deepfake Shield dan white paper terbaru menunjukkan komitmen VIDA dalam meningkatkan kesadaran masyarakat tentang bahaya pemalsuan,” kata Sati.