Permintaan Akan Deteksi “Deepfake” Semakin Meningkat

AI adalah teknologi yang berkembang pesat yang memerlukan model AI pendeteksi deepfake untuk mengimbangi pelaku kejahatan

0
535
Amerika Serikat
VR Technology (Sumber:Unsplash)

(vibizmedia-Kolom) Di dunia sekarang ini – yang sangat ingin tidak tertipu oleh AI yang menciptakan “deepfake”. Deep Media adalah perusahaan startup Amerika yang sedang naik daun karena mampu mendeteksi deepfake. Deep Media – yang mengklaim dapat mengidentifikasi gambar, audio, dan video buatan AI yang terlihat sangat nyata dengan akurasi 99 persen – telah memenangkan setidaknya lima kontrak militer senilai hampir $2 juta sejak akhir tahun 2022, termasuk kesepakatan senilai $1,25 juta untuk dikembangkan. detektor khusus untuk membantu Angkatan Udara melawan perang informasi Rusia dan Tiongkok. Bulan lalu, CEO-nya, Rijul Gupta, memberikan kesaksian di depan subkomite senat tentang ancaman “deepfakes” AI terhadap pemilu AS.

Namun meskipun Deep Media semakin terkenal, satu-satunya insinyur pembelajaran mesin di perusahaan tersebut lulus dari perguruan tinggi dua tahun lalu – dengan gelar sarjana di bidang astrofisika, menurut profil LinkedIn-nya. Sementara itu, tinjauan terhadap profil karyawan LinkedIn lainnya menunjukkan bahwa perusahaan tersebut tidak memiliki staf PhD, spesialis AI, atau ilmuwan forensik – kurangnya keahlian di bidangnya yang menurut para ahli, menunjukkan terputusnya hubungan dengan komunitas penelitian deepfake yang bergerak cepat.

Gupta “pada dasarnya mengatakan, ‘Percayalah’. Dan hal itu tidak berlaku dalam sains,” kata Wael Abd-Almageed, seorang profesor di Clemson University yang mempelajari deepfake. Apa pun bonafiditasnya, Deep Media adalah bagian dari segmen perusahaan rintisan (start-up) yang berkembang dan menjadikan diri mereka sebagai benteng melawan membanjirnya konten palsu yang meningkat seiring dengan munculnya alat AI baru yang mudah digunakan. Kekhawatiran bahwa media sintetik dapat mengganggu pemilu dan mengancam keamanan nasional telah membuat lembaga-lembaga seperti Kongres, militer, dan media putus asa mencari perbaikan teknis yang dapat dipercaya untuk mengidentifikasi konten palsu. Awal bulan ini, pembuat ChatGPT openAI mengumumkan bahwa mereka sedang mengembangkan alat pendeteksinya sendiri.

Namun meskipun deteksi merupakan layanan yang semakin penting dan dicari, kemampuannya sebagian besar belum teruji. Metode yang digunakan untuk membuat deepfake terus berkembang, artinya alat pendeteksi yang dibuat di laboratorium tidak selalu berfungsi di alam liar, kata para akademisi dan peneliti. Pengujian terhadap beberapa detektor deepfake yang gratis atau berbiaya rendah yang dapat diakses publik oleh Reuters Institute for the study of Journalism menemukan bahwa sebagian besar orang dapat tertipu oleh teknik yang sama.

Meskipun demikian, sekitar 40 perusahaan muda kini menawarkan layanan deteksi deepfake, dengan beberapa di antaranya mengklaim tingkat akurasi yang mencengangkan: originality.ai misalnya menjanjikan “99% akurasi deteksi konten AI.” AI Voice Detector mengatakan alatnya dapat “memastikan keaslian dalam situasi penting,” termasuk kasus pengadilan. GPTZero mengatakan layanan ini “secara meyakinkan melampaui semua layanan deteksi AI pesaing terkemuka.” Dan untuk menunjukkan kehebatannya, Kroop AI menampilkan dua wajah kartun yang tampak identik di situsnya, satu berlabel “REAL 100%” dan yang lainnya “FAKE 100%.”

Artificial General Intelligence (AGI) deepfake
Ilustrasi Robot. FOTO: BEI

CEO Kroop AI, Jyoti Joshi, mengatakan bahwa kartun tersebut dimaksudkan untuk mengilustrasikan bagaimana deepfake berkualitas tinggi dapat terlihat sangat realistis, dan menambahkan bahwa alat perusahaannya unggul dalam menangkap “tanda tangan halus” yang ditinggalkan oleh AI generatif. perusahaan lain mengatakan bahwa hasil deteksi mereka tidak boleh dibaca sebagai keputusan akhir, dan CEO Detektor Voice AI Abdellah Azzouzi mengatakan bahwa perusahaannya mendorong pengguna “untuk menyelidiki lebih lanjut, setelah mendapatkan hasilnya.” Meskipun originality.ai mengklaim akurasinya 99 persen, CEO Jon Gillham menulis dalam sebuah pernyataan kepada The Washington Post bahwa klaim tersebut “tidak boleh dipercaya” kecuali didukung oleh hasil pengujian. Menunjuk ke postingan blog perusahaan, Gillham mengatakan perusahaannya mengungkapkan hasil detektornya pada lima kumpulan data pihak ketiga, serta hasil pengujian untuk detektor lainnya.

Menurut firma analitik PitchBook, pemodal ventura menginvestasikan $200 juta pada perusahaan rintisan deepfake secara global pada tahun 2023 dan kuartal pertama tahun 2024, naik dari $6,6 juta pada tahun 2017. Angka tersebut mencakup perusahaan pembuat deepfake serta pendeteksi, namun beberapa di antaranya adalah yang terbesar. Kesepakatannya adalah alat untuk mengidentifikasi media yang dimanipulasi AI. Namun, pengeluaran untuk deteksi deepfake tidak seberapa dibandingkan dengan $29 miliar yang diinvestasikan dalam kesepakatan AI generatif tahun lalu, menurut PitchBook, termasuk pendanaan untuk alat-alat populer yang dapat disalahgunakan untuk membuat gambar yang menipu, mengkloning suara, atau mengedit video.

Dengan perang yang berkecamuk di Ukraina dan Gaza dan lebih dari 4 miliar orang berhak memilih dalam pemilu tahun ini, pakar forensik mengatakan lonjakan startup pendeteksi – terutama yang memiliki akurasi hampir sempurna – berisiko menimbulkan kebakaran AI yang semakin meningkat dengan memberikan informasi palsu. Rasa kepastian tentang keabsahan beberapa konten visual dan audio, sekaligus mengikis kepercayaan publik terhadap media yang autentik. Potensi risiko keamanan akibat memberi label pada suatu konten sebagai “palsu” semakin meningkat. Pada bulan Oktober, situs berita teknologi 404 media melaporkan bahwa alat gratis AI or Not, menandai gambar yang diklaim pemerintah Israel menunjukkan kekejaman yang dilakukan oleh Hamas sebagai palsu, hal ini bertentangan dengan pendapat para ahli.

CEO AI or Not Anatoly Kvitnitsky mengatakan bahwa, dari beberapa lusin gambar yang terkait dengan serangan Hamas, “Semuanya benar kecuali yang ini.” AI or Not telah menyempurnakan alatnya, kata Kvitnitsky, namun dia mengakui bahwa kesalahan tersebut mengkhawatirkan. “Saya sebenarnya lahir di Ukraina dan merupakan seorang Yahudi,” katanya, “jadi hal ini menjadi nyata ketika kami melakukan kesalahan dalam hal ini.”

 

Deep Media juga telah menemukan bukti manipulasi AI yang tidak ditemukan oleh media lain. Bulan lalu, Gupta mengatakan bahwa alat perusahaannya mendeteksi “kemungkinan besar” bahwa video Catherine, Putri Wales, yang diawasi dengan cermat, mengumumkan diagnosis kankernya telah dimanipulasi dengan AI. Para ahli termasuk Abd-Almageed dari Clemson, peneliti misinformasi Brown University Claire Wardle dan Hao Li, CEO perusahaan efek video AI Pinscreen, mengatakan mereka tidak menemukan bukti bahwa video tersebut, yang direkam oleh BBC pada bulan Maret, dimanipulasi dengan AI. Dalam wawancara baru-baru ini dengan Washington Post, Gupta mengatakan bahwa perusahaan tetap berpegang pada analisisnya. Gupta juga membela tingkat keahlian AI perusahaannya. Gupta, lulusan Yale dengan gelar di bidang teknik biokimia, mengatakan bahwa dia secara pribadi memiliki pengalaman selama 15 tahun di bidang pembelajaran mesin, dimulai saat dia berusia 15 tahun. Dia menambahkan bahwa Deep media mempekerjakan kontraktor berpengalaman, termasuk orang-orang yang sedang mengejar gelar PhD, namun menolak menyebutkan nama mereka.

Baca juga :Populasi Manusia Digital AI Siap Bekerja

“AI adalah teknologi yang berkembang pesat yang memerlukan model AI pendeteksi deepfake untuk mengimbangi pelaku kejahatan,” kata Gupta dalam sebuah pernyataan, seraya mencatat bahwa Deep media telah melatih dan menguji berbagai model pendeteksian. “Deteksi deepfake adalah masalah yang sangat sulit,” kata Gupta dalam wawancara, “dan Deep media bekerja tanpa lelah untuk terus memajukan teknologi kami.”

‘Dapatkah saya mempercayainya atau tidak?’ pakar forensik Hany farid, seorang profesor di Universitas California di Berkeley, mengatakan bahwa dia telah berbicara dengan empat developer berbeda bulan ini yang memiliki tingkat deteksi yang hampir sempurna. Namun dia mengatakan bahwa perusahaan rintisan dapat meningkatkan jumlah mereka dengan menilai diri mereka sendiri berdasarkan suatu kurva: Mereka sering melatih model deteksi pada serangkaian deepfake tertentu dan kemudian mengevaluasi kemampuan mereka untuk mengidentifikasi jenis pemalsuan yang sama. Di dunia nyata, media yang menipu mungkin tidak menunjukkan pola yang telah dipelajari oleh AI untuk dideteksi, kata Farid, seraya menambahkan bahwa pendekatan yang lebih andal memerlukan kombinasi antara pemrograman komputer, fisika, sumber intelijen yang terbuka, dan forensik.

Startup deteksi Farid sendiri, Get real Labs, menggunakan pembelajaran mesin, tetapi juga menganalisis elemen termasuk bayangan, geometri, pengaturan kompresi, dan hasil pencarian gambar terbalik, katanya. Pada akhirnya, perusahaan mungkin mencapai keakuratan untuk merangkum hasilnya dalam “jawaban akhir” untuk klien, katanya, namun ilmu pengetahuannya belum mencapai tujuan tersebut. “Jika Anda mulai berkata, ‘Kami dapat, dengan presisi tinggi, mengetahui apakah sesuatu itu asli atau palsu,’ dan Anda salah, Anda adalah bagian dari masalahnya,” kata Farid. “Faktanya, penyakit Anda bisa dibilang lebih buruk.”

Baca Juga : Mengakses Tools Artificial General Intelligence

Kesenjangan antara hasil laboratorium dan dunia nyata membuat sulit untuk mengevaluasi detektor yang bersaing, kata Abd-Almageed. Dan hal ini membuat banyak wirausahawan beralih ke deteksi deepfake sebagai sektor start-up yang sedang populer, mirip dengan kripto atau AI itu sendiri, khususnya yang memprihatinkan, kata Farid. Meskipun ada klaim sombong dari Allen Institute for AI, yang baru-baru ini mendirikan organisasi nirlaba Truemedia.org, yang berdedikasi untuk mengembangkan alat deteksi tepercaya yang ditawarkan secara gratis kepada pemeriksa fakta.

Pentagon juga bergerak lebih cepat untuk mengimbangi kemajuan teknologi. Mereka semakin menyambut baik start-up teknologi dengan memodernisasi proses akuisisi dan melonggarkan batasan kelayakan untuk dana pengembangan Small Business Innovation Research (SBIR). Dikenal sebagai SBIR, program tiga tahap ini mendanai ide-ide yang menjanjikan, mengembangkan teknologi, dan terakhir, menerapkan teknologi tersebut ke dalam produksi. kebanyakan start-up tidak pernah berhasil mencapai fase ketiga.

Kelima kontrak militer Deep Media yang terdaftar secara publik adalah hibah dari SBIR. Tiga diantaranya telah berakhir dan yang keempat berakhir pada bulan Juli, sedangkan kesepakatan deteksi AI senilai $1,25 juta dengan Angkatan Udara – sekarang dalam tahap kedua SBIR – berakhir pada bulan November. Dalam sebuah pernyataan, juru bicara Pentagon Jeff Jurgensen mengatakan Departemen Pertahanan mengevaluasi setiap proposal SBIR dengan “mempertimbangkan faktor-faktor seperti kemampuan teknis, persyaratan pertahanan, dan potensi komersial,” mencari usaha kecil yang mungkin menarik bagi investor swasta, yang memiliki akses ke lebih banyak modal.

deepfake Artificial Intelligence
Ilustrasi Artificial Intelligence. FOTO: FREEPIK

Sebelum berfokus pada deteksi deepfake, Deep Media berkecimpung dalam bisnis pembuatan media sintetis. Perusahaan ini merilis apa yang disebut penerjemah universal untuk menjuluki video dan meluncurkan serangkaian aplikasi pembuatan konten, termasuk Babble, CopyCat.ai, DubSync, dan PolyTalk. Dua dari kontrak militer perusahaan yang lebih kecil adalah untuk layanan penerjemahan AI.