Video palsu yang sempurna akan dikenali oleh kecerdasan buatan
Video palsu yang sempurna akan dikenali oleh kecerdasan buatan

Video: Video palsu yang sempurna akan dikenali oleh kecerdasan buatan

Video: Video palsu yang sempurna akan dikenali oleh kecerdasan buatan
Video: The Adventures of Sherlock Holmes by Arthur Conan Doyle [#Learn #English Through Listening] Subtitle - YouTube 2024, Maret
Anonim
Pertunjukan perdana opera tentang keracunan Litvinenko dimulai di Inggris
Pertunjukan perdana opera tentang keracunan Litvinenko dimulai di Inggris

Setahun yang lalu, Manish Agrawala dari Stanford membantu mengembangkan teknologi sinkronisasi bibir yang memungkinkan editor video mengubah kata-kata pembicara hampir tanpa terasa. Alat ini dapat dengan mudah menyisipkan kata-kata yang tidak pernah diucapkan seseorang, bahkan di tengah kalimat, atau menghapus kata-kata yang diucapkannya. Semuanya akan terlihat realistis dengan mata telanjang dan bahkan untuk banyak sistem komputer.

Alat ini telah mempermudah untuk memperbaiki kesalahan tanpa merekam ulang seluruh adegan, dan juga telah mengadaptasi acara TV atau film untuk audiens yang berbeda di tempat yang berbeda. Namun teknologi ini juga telah menciptakan peluang baru yang mengganggu untuk video palsu yang sulit ditemukan, dengan maksud yang jelas untuk mendistorsi kebenaran. Misalnya, video Republik baru-baru ini menggunakan teknik yang lebih kasar untuk wawancara dengan Joe Biden.

Musim panas ini, Agrawala dan rekan-rekannya di Stanford dan UC Berkeley meluncurkan pendekatan berbasis kecerdasan buatan untuk teknologi lip-sync. Program baru ini secara akurat mendeteksi lebih dari 80 persen pemalsuan, mengenali perbedaan terkecil antara suara orang dan bentuk mulut mereka.

Tetapi Agrawala, direktur Institut Inovasi Media Stanford dan profesor ilmu komputer di Forest Baskett, yang juga berafiliasi dengan Institut Kecerdasan Buatan Berpusat pada Manusia Stanford, memperingatkan bahwa tidak ada solusi teknis jangka panjang untuk kepalsuan yang mendalam.

Cara kerja palsu

Ada alasan yang sah untuk manipulasi video. Misalnya, siapa pun yang merekam acara TV fiksi, film, atau iklan dapat menghemat waktu dan uang dengan menggunakan alat digital untuk memperbaiki kesalahan atau menyesuaikan skrip.

Masalah muncul ketika alat ini sengaja digunakan untuk menyebarkan informasi palsu. Dan banyak teknik yang tidak terlihat oleh pemirsa rata-rata.

Banyak video palsu yang mendalam mengandalkan pertukaran wajah, secara harfiah melapiskan wajah satu orang ke video orang lain. Tapi sementara alat pengubah wajah bisa menarik, mereka relatif kasar dan biasanya meninggalkan artefak digital atau visual yang dapat dideteksi oleh komputer.

Di sisi lain, teknologi sinkronisasi bibir kurang terlihat dan karenanya lebih sulit dideteksi. Mereka memanipulasi bagian gambar yang jauh lebih kecil dan kemudian mensintesis gerakan bibir yang persis sama dengan bagaimana mulut seseorang akan benar-benar bergerak jika dia mengucapkan kata-kata tertentu. Menurut Agrawal, dengan sampel gambar dan suara seseorang yang cukup, produser palsu bisa membuat seseorang “mengatakan” apa saja.

Deteksi palsu

Prihatin dengan penggunaan teknologi yang tidak etis, Agrawala bekerja dengan Ohad Freed, seorang mahasiswa doktoral di Stanford, untuk mengembangkan alat pendeteksi; Hani Farid, profesor di University of California, Berkeley School of Information; dan Shruti Agarwal, seorang mahasiswa doktoral di Berkeley.

Pada awalnya, para peneliti bereksperimen dengan teknik manual murni di mana pengamat mempelajari rekaman video. Itu bekerja dengan baik, tetapi dalam praktiknya itu padat karya dan memakan waktu.

Para peneliti kemudian menguji jaringan saraf berbasis kecerdasan buatan yang akan jauh lebih cepat untuk melakukan analisis yang sama setelah pelatihan video dengan mantan Presiden Barack Obama. Jaringan saraf mendeteksi lebih dari 90 persen sinkronisasi bibir Obama, meskipun akurasi untuk pembicara lain turun menjadi sekitar 81 persen.

Sebuah ujian nyata dari kebenaran

Para peneliti mengatakan pendekatan mereka hanyalah bagian dari permainan kucing dan tikus. Saat teknik pemalsuan mendalam meningkat, mereka akan meninggalkan lebih sedikit kunci.

Pada akhirnya, kata Agrawala, masalah sebenarnya bukanlah memerangi video palsu yang mendalam, melainkan memerangi disinformasi. Faktanya, dia mencatat, banyak informasi yang salah muncul dari distorsi makna dari apa yang sebenarnya dikatakan orang.

“Untuk mengurangi misinformasi, kita perlu meningkatkan literasi media dan mengembangkan sistem akuntabilitas,” katanya. "Ini bisa berarti undang-undang yang melarang produksi informasi yang salah secara sengaja dan konsekuensi dari pelanggarannya, serta mekanisme untuk menghilangkan kerugian yang diakibatkannya."

Direkomendasikan: