09 Juni 2022
13:13 WIB
JAKARTA - No pict/video hoax! komentar ini sempat populer di sejumlah media sosial beberapa tahun lalu.
Pernyataan ini umumnya timbul ketika seseorang mengabarkan sesuatu yang unik, bombastis, mengejutkan atau hampir mustahil, tanpa melampirkan foto atau video sebagai bukti pendukung.
Tanpa lampiran foto atau video, kabar tersebut pun dianggap bohong atau disangsikan kebenarannya.
Namun, itu dulu. Sekarang, foto atau video yang disertakan pada sebuah kabar, tak serta merta menjamin kebenaran dari kabar tersebut.
Dengan perkembangan teknologi yang makin canggih, kini Anda tak bisa 100% mempercayai begitu saja, apa yang Anda lihat.
Saat ini, segalanya seolah mudah untuk dimanipulasi. Membedakan hoaks atau fakta pun menjadi sesuatu yang makin sulit dilakukan.
Bukan sekadar edit mengedit secara konvensional, kegiatan memanipulasi gambar dan video kini makin marak dilakukan dengan teknologi deepfake.
Teknologi dengan kecerdasan buatan alias artificial intelligence dari hari ke hari, makin banyak digunakan untuk mengelabu publik dengan berbagai tujuan.
Baru-baru ini, Google sendiri telah melarang algoritma deepfake dari Google Colaboratorym, layanan komputasi gratis dengan akses ke Graphics Processing Unit (GPU).
Tak hanya Google yang mengatur tentang deepfake, beberapa negara bagian AS memiliki regulasi untuk mengaturnya teknologi ini.
Rancangan undang-undang China juga memerlukan identifikasi media yang dihasilkan dari komputer. Senada, peraturan AI Uni Eropa yang prospektif ada potensi menyertakan klausul tentang teknologi khusus ini.
Kecerdasan Buatan
Untuk diketahui, deepfake pertama kali lahir pada 2017. Teknologi ini bisa dibilang merupakan teknik rekayasa atau sintetis citra manusia menggunakan teknologi kecerdasan buatan.
Deepfake dilakukan dengan cara menggabungkan gambar atau video orisinal, dengan gambar atau video yang ingin dimanipulasi.
Tak heran, deepfake sering dipakai untuk tindak kejahatan, seperti membuat video porno selebriti atau tokoh publik, berita palsu, atau digunakan untuk tipuan jahat.
Padahal, deepfake sendiri bisa dilakukan untuk tujuan positif. Misalnya, pada akhir 2021 lalu, saluran televisi Korea Selatan, MBN, mulai menggunakan teknologi deepfake untuk penyiar berita Kim Joo-Ha.
Banyak orang yang “tertipu” karena sebenarnya bukan Kim Joo-Ha yang tampil di layar. Sang penyiar telah digantikan oleh versi deepfake dari dirinya sendiri yang berupa salinan buatan komputer untuk meniru suara, gerak tubuh, dan ekspresi wajahnya dengan sempurna.
Setelah pemirsa mengetahui hal ini, tanggapan beragam pun menyeruak. Ada yang takjub dengan realistisnya manipulasi tersebut. Sebagian yang lain justru khawatir Kim Joo-Ha yang asli akan kehilangan pekerjaannya.
Contoh penggunaan deepfake untuk tujuan positif juga pernah dilakukan Polisi Belanda. Mereka memanfaatkan deepfake untuk “menghidupkan” kembali bocah laki-laki berusia 13 tahun yang tewas hampir dua dekade lalu. Setelah menggunakan teknologi itu, polisi mendapatkan sejumlah informasi terkait kasus itu.
Pakar Kaspersky sendiri telah menjelaskan apa itu deepfake, dan mengapa ada begitu banyak kontroversi di sekitarnya. Termasuk, bagaimana pengguna internet dapat melindungi diri mereka sendiri.
Dalam pernyataannya, Kamis (9/6), Vladislav Tuskanov, Ilmuwan Data Utama di Kaspersky menyatakan, deepfake biasanya mengacu pada berbagai jenis media buatan komputer yang melibatkan orang- orang dan dibuat dengan neural network. Ini mungkin berupa video, foto, atau rekaman suara.
“Alih-alih menggunakan teknik pengeditan gambar tradisional, penggunaan deep learning telah menggeser kebutuhan akan keterampilan dan ada upaya untuk membuat gambar palsu yang meyakinkan,” serunya.
Ilustrasi penerpan teknologi deepfake. dok.shutterstock
Banyak Disalahgunakan
Sayangnya, teknologi ini justru lebih banyak disalahgunakan. Lantaran, perangkat lunak tersebut dapat menanamkan wajah seseorang ke dalam video yang menampilkan orang lain, teknologi ini hampir seluruhnya digunakan untuk membuat pornografi non-konsensual dengan selebriti.
Menurut beberapa perkiraan, sekitar 96% dari semua deepfake adalah pornografi. Hal ini sekaligus menyoroti kekhawatiran seputar deepfake yang digunakan untuk pelecehan, pemerasan, dan mempermalukan publik.
Teknologi ini juga dapat memudahkan pekerjaan para pelaku kejahatan siber. Setidaknya, dalam dua kasus, di Inggris dan Hong Kong, deepfake suara telah digunakan untuk mengelabui perusahaan agar mentransfer dana ke penipu online, dengan menyamar sebagai pejabat dari masing-masing perusahaan.
Penelitian terbaru menunjukkan, algoritma deteksi liveness komersial yang digunakan oleh lembaga keuangan dalam prosedur know your customer (KYC), dapat tertipu oleh deepfake yang dibuat dari foto ID. Kemudian menciptakan vektor serangan baru sehingga membuat kebocoran identitas menjadi masalah yang lebih serius.
Masalah lainnya adalah deepfake merusak rasa kepercayaan terhadap konten audio dan video karena dapat digunakan untuk tujuan berbahaya. Misalnya, dalam kasus baru-baru ini, wawancara palsu dengan Elon Musk digunakan untuk mempromosikan penipuan cryptocurrency.
Berbagai pakar dan institusi, seperti Europol pun memperingatkan, meningkatnya ketersediaan deepfake dapat menyebabkan proliferasi lebih lanjut terkait disinformasi di Internet.
Namun tidak semuanya merupakan berita buruk. Manipulasi gambar bisa dibilang sama tuanya dengan gambar itu sendiri. Seperti computer graphic image (CGI) yang telah ada selama beberapa dekade, telah dimanfaatkan untuk penggunaan yang layak.
Misalnya, dalam video Kendrick Lamar baru-baru ini,Heart Part 5, teknologi deepfake digunakan untuk mengubah wajah rapper menjadi selebritas terkenal lainnya, seperti Kanye West. Dalam film Top Gun: Maverick, sebuah algoritma digunakan untuk menyuarakan karakter Val Kilmer setelah sang aktor kehilangan suaranya.
Algoritma Deepfake
Algoritma deepfake juga digunakan untuk membuat serial TikTok viral yang dibintangi oleh Tom Cruise palsu. Dan beberapa startup mencari cara baru untuk menggunakan teknologi, misalnya, untuk menghasilkan avatar metaverse yang hidup.
Perusahaan konsultan teknologi Accenture, baru-baru ini memaparkan riset terkait tren metaverse di Indonesia. Managing Director of Applied Intelligence Accenture, Budiono, dalam konferensi pers di Jakarta, Rabu (8/6/2022) menuturkan, meskipun ada peluang besar, teknologi masa depan ini juga memiliki efek negatif untuk Indonesia.
"Metaverse itu kan terdiri dari AI dan AR/VR. Nah yang dikhawatirkan adalah penyalahgunaan teknologi deepfake," tuturnya.
Dari hasil riset bertajuk “Accenture Technology Vision 2022: Metaverse Continuum”, sebanyak 100% eksekutif Indonesia mengkhawatirkan adanya deepfake atau disinformasi dalam metaverse.
"Misalnya teknologi deepfake ini bisa melahirkan sebuah buzzer virtual, yang menyebarkan informasi yang salah via metaverse," imbuhnya.
Dengan semua masalah kepercayaan seputar deepfake, pengguna sebenarnya dapat bertanya-tanya, bagaimana cara mengenali deepfake. Berikut adalah beberapa tips untuk mengenalinya.
1. Deepfake yang meyakinkan, seperti yang menampilkan Tom Cruise, masih membutuhkan banyak keahlian dan upaya, bahkan bagi peniru profesional sekalipun. Deepfake yang digunakan untuk scam masih cenderung berkualitas rendah dan dapat terlihat.
Misalnya dengan memperhatikan gerakan bibir yang tidak wajar, rambut yang dibuat dengan buruk, bentuk wajah yang tidak selaras, sedikit atau tidak ada kedipan, warna kulit yang tidak cocok, dan sebagainya. Kesalahan dalam rendering pakaian atau tangan yang melewati wajah juga bisa memberikan deepfake amatir.
2. Jika Anda melihat orang terkenal atau publik membuat klaim liar atau penawaran yang terlalu bagus untuk menjadi kenyataan, meskipun videonya meyakinkan, lanjutkan dengan cross-check informasi melalui sumber terpercaya. Perhatikan, penipu dapat dengan sengaja membuat kode video untuk menyembunyikan kekurangan deepfake.
Jadi strategi terbaik bukanlah menatap video untuk mencari petunjuk, tetapi menggunakan akal sehat dan keterampilan memeriksa fakta.
3. Solusi keamanan tepercaya dapat memberikan perlindungan yang baik, jika deepfake berkualitas tinggi meyakinkan pengguna untuk mengunduh fail atau program berbahaya, atau mengunjungi tautan atau situs web phishing yang mencurigakan.
4. Jika Anda adalah korban dari deepfake pornografi, Anda dapat menghubungi kedua situs web tersebut untuk meminta video tersebut dihapus. Saat ini, banyak situs web melarang memposting deepfake, dan melaporkannya ke lembaga penegak hukum. Pasalnya, membuat deepfake adalah tindak pidana dalam beberapa peraturan perundang-undangan.
“Deepfake adalah contoh utama dari teknologi yang berkembang lebih cepat daripada yang kita pahami dan cara mengelola komplikasinya. Inilah sebabnya itu dianggap memiliki dua sudut pandang, di satu sisi sebagai instrumen tambahan bagi para seniman dan di sisi lainnya memberikan celah untuk disinformasi yang dapat menjadi tantangan bagi kita masyarakat mengenai apa yang kita percayai,” kata Vladislav Tuskanov.