bachkim24h.com, Jakarta – Microsoft Research Asia meluncurkan alat AI baru bernama VASA-1. AI ini dapat mengubah gambar seseorang beserta file audio yang ada hingga membuat wajah gambar tersebut berbicara secara real time.
Melansir Engadget, Senin (22/4/2024), VASA-1 mampu menciptakan bentuk wajah dan pergerakan kepala dari gambar yang dimunculkan. Tak hanya itu, AI ini juga bisa mencocokkan gerakan bibir dengan suara atau lagu yang Anda download serta gambar yang ingin dijadikan video.
Peneliti Microsoft menguji VASA-1 dengan memposting beberapa contoh produk yang dihasilkan AI ke halaman proyek mereka. Hasilnya, AI video ini sangat efektif
Meski pergerakan bibir dan kepala pada video hasil AI masih belum sesuai dengan radio yang diunggah, namun VASA-1 terus dikembangkan dan video hasil AI bisa tetap sama dengan video aslinya. .
Namun fitur AI pada VASA-1 disebut berpotensi disalahgunakan oleh orang yang tidak menaruh curiga untuk dengan mudah dan cepat membuat video deep fake.
Dalam hal ini, peneliti Microsoft sudah mengetahui hal tersebut. Oleh karena itu, mereka memutuskan bahwa Anda dapat menggunakan demo online, aplikasi, produk, menambahkan fungsionalitas atau penawaran atau penawaran, bergantung pada penggunaan teknologi ini.
Microsoft mengatakan VASA-1 dapat digunakan untuk meningkatkan pemerataan pendidikan, serta meningkatkan aksesibilitas bagi mereka yang mengalami kesulitan komunikasi dengan menyediakan aksesibilitas dalam bentuk avatar yang dapat diakses.
Namun, mereka tidak menyebutkan bahwa pelaku kejahatan berencana menerapkan kebijakan khusus untuk menggunakannya untuk tujuan jahat, seperti membuat skrip AI yang meniru manusia atau menyebarkan informasi palsu.
Menurut siaran pers yang menyertai pengumuman tersebut, VASA-1 dilatih pada kumpulan data VoxCeleb2, yang berisi lebih dari satu juta kata dari 6.112 selebriti dari video YouTube.
Di sisi lain, penyalahgunaan AI dapat mengakibatkan penyebaran kejahatan bahkan mengancam perekonomian.
Forum Ekonomi Dunia (WEF) menyebutkan bahwa masalah terbesar perekonomian dunia tahun ini adalah isu kebohongan atau disinformasi yang diciptakan oleh kecerdasan buatan (AI). Menurut mereka, hal ini dapat mengancam, melemahkan demokrasi, dan memecah belah masyarakat.
Berdasarkan survei terhadap 1.500 pakar, pemimpin bisnis, dan pembuat kebijakan, laporan tersebut dirilis menjelang pertemuan tahunan para eksekutif senior dan pemimpin dunia di Davos, Swiss.
Studi tersebut menunjukkan bahwa pesatnya kemajuan teknologi telah menyebabkan munculnya masalah baru, dengan menyebutkan misinformasi dan disinformasi sebagai masalah terbesar dalam dua tahun ke depan.
Para peneliti memperingatkan bahwa munculnya chatbot AI buatan seperti ChatGPT tidak akan memperlambat pengembangan kecerdasan buatan kompleks yang digunakan untuk melibatkan sekelompok orang.
Caroline Klint, Pemimpin Manajemen Risiko di Marsh, mengatakan AI dapat digunakan oleh pihak yang tidak bermoral untuk menciptakan informasi palsu dan memengaruhi perilaku masyarakat.
“Masyarakat bisa menjadi lebih tercemar karena verifikasi kebenaran menjadi lebih sulit. Informasi palsu juga dapat digunakan untuk menimbulkan pertanyaan tentang legitimasi pemerintah terpilih, yang dapat mempengaruhi proses pemerintahan dan semakin mempolarisasi masyarakat,” kata Clint kepada voanews. com dari situsnya, pada Sabtu (20/4/2024).
Di sisi lain, terdapat penelitian yang menunjukkan bahwa organisasi media tidak memiliki kebijakan terkait gambar yang dihasilkan AI.
Penelitian yang dipimpin oleh RMIT University ini juga melibatkan Washington State University dan QUT Center for Media Research. Mereka mewawancarai 20 editor foto dari 16 organisasi publik dan komersial di Eropa, Australia, dan Amerika Serikat mengenai pandangan mereka terhadap penciptaan AI di industri media.
Di antara 16 organisasi tersebut, lima karyawan dilarang membuat gambar menggunakan AI, tiga orang dilarang hanya membuat gambar grafis, dan satu orang dilarang membuat gambar yang dibuat dengan AI.
“Pembuat gambar ingin transparan kepada audiensnya saat menggunakan teknologi AI, namun organisasi media tidak dapat mengontrol perilaku masyarakat atau cara platform lain menampilkan informasi,” kata peneliti utama dan dosen senior RMIT, TJ Thomson.
“Sebagian besar organisasi media harus transparan dengan kebijakan mereka sehingga audiens dapat yakin bahwa konten dibuat atau diedit sesuai dengan pedoman organisasi,” tambah Thomson.
Ia juga menambahkan bahwa ketika media mengembangkan kebijakan AI, mereka harus mempertimbangkan semua bentuk komunikasi, termasuk gambar dan video, dan memberikan pedoman khusus. Jadi, penggunaan AI generatif di redaksi dapat mencegah kebohongan dan disinformasi.