Categories
Teknologi

Peneliti Sebut Bot Media Sosial Jadi Masalah Baru yang Bisa Memecah Belah

bachkim24h.com, JAKARTA – Ingatkah saat ancaman terbesar di dunia maya adalah virus komputer? Saat-saat itu lebih sederhana. Saat ini, kita menghadapi ancaman digital yang mengerikan: bot media sosial yang didukung oleh kecerdasan buatan.

Sebuah studi yang dilakukan oleh para peneliti di Universitas Washington dan Universitas Xi’an Jiaotong mengungkapkan potensi besar dan risiko serius dari penggunaan model linguistik skala besar (LLM) seperti ChatGPT untuk mengidentifikasi dan membuat profil palsu yang menyesatkan.

Bot media sosial – akun otomatis yang dapat meniru perilaku manusia – telah lama menjadi duri bagi operator dan pengguna platform. Catatan korup ini dapat menyebarkan informasi yang salah, mempengaruhi pemilu, dan bahkan mendorong pandangan ekstremis.

Hingga saat ini, perang melawan robot masih berupa permainan kucing dan tikus, dengan para peneliti mengembangkan metode pendeteksian yang canggih, namun produsen robot menemukan cara baru untuk menghindarinya.

Sebuah studi yang dipimpin oleh Shangbin Feng memberikan gambaran penuh harapan dan kehati-hatian untuk masa depan integritas media sosial.

“Telah terjadi pertarungan teknologi yang sedang berlangsung antara operator robot dan peneliti yang berusaha menghentikannya. Kemajuan apa pun dalam penelitian robot dipersulit oleh robot,” kata Feng, seperti dilansir investigasi, Sabtu (31/8/2024). dengan meningkatkan tingkat akurasi, maka kami menganalisis peluang dan risiko dari berbagai jenis bahasa yang disajikan dalam masalah ini. “.

Dalam hal penelitian, para peneliti mengembangkan metode baru menggunakan LL.M untuk menganalisis berbagai aspek akun pengguna, termasuk metadata (seperti jumlah pengikut dan usia akun), konten tekstual, dan jaringan koneksi antar pengguna. Dengan menggabungkan aliran informasi yang berbeda ini, sistem LLM mereka dapat meningkatkan metode deteksi robot yang ada dengan selisih yang signifikan, meningkat hingga 9,1% pada kumpulan data standar.

Namun hasil penelitian ini tidak positif. Para peneliti juga mengkaji bagaimana LL.M digunakan oleh pihak lain yaitu pengembang bot itu sendiri. Dengan menggunakan kemampuan pengembangan bahasa model AI ini, mereka dapat membuat sistem untuk memodifikasi akun bot agar tidak terdeteksi.

Strategi pencegahan yang dipimpin oleh LL.M ini telah terbukti sangat efektif. Ketika ditambahkan ke akun bot yang dikenal, mereka dapat mengurangi tingkat deteksi algoritma pencarian bot yang ada sebesar 29,6%. Tindakan tersebut berkisar dari penulisan ulang teks palsu yang dibuat oleh bot agar terlihat seperti manusia, hingga perubahan dalam strategi bot dalam mengikuti atau berhenti mengikuti akun.

Mungkin yang paling mengesankan adalah kemampuan LL.M.s dalam menciptakan robot yang tidak hanya mengajukan pertanyaan tetapi juga memperjelasnya. Studi ini menunjukkan bahwa LLM dapat membuat profil pengguna dan postingan yang menangkap banyak karakteristik manusia, sehingga sulit dibedakan dengan akun nyata.

LL.M dapat digunakan dua kali di bidang integritas media yang menciptakan tantangan bagi operator platform, peneliti, dan pembuat kebijakan. Demikian pula, alat AI canggih ini dapat merevolusi kemampuan kita dalam mendeteksi dan menghapus akun bot berbahaya dalam skala besar. Di sisi lain, mereka juga bisa menjadi “senjata” teknologi untuk mengendalikan Internet.

“Mengevaluasi apakah pengguna merupakan bot lebih rumit dari yang kami duga,” kata Feng.

Pada bagian ini, para peneliti menyoroti perlunya terus berinovasi dalam metode deteksi bot, terutama yang dapat mencegah peningkatan strategi pelarian LLM. Mereka juga menyerukan pemahaman yang lebih besar mengenai platform media sosial dan cara berkolaborasi antara peneliti, perusahaan teknologi, dan pembuat kebijakan untuk mengatasi permasalahan yang muncul ini.

;