Header Ads

Breaking

Friday, September 24, 2021

Deepfake video Iucah Ebit Lew? Ketahui teknologi video pengganti wajah paling ditakuti ramai abad ini

 


Isu berkaitan video Iuucah yang menyerupai wajah pendakwah bebas Ustaz Ebit Lew kini hangat menjadi perbincangan netizen. Ada yang tak sanggup untuk menontonnya kerana Ebit yang kita kenali bukanlah seperti yang kita lihat dalam video tersebut.


Ramai yang percaya ini adalah angkara pengkhianat yang berhati hitam demi merosakkan imej baik pendakwah bebas tersebut. Tak kurang juga yang yakin bahawa ia ada teknik suntingan video yang mampu mengubah wajah seseorang dalam video.


Perkembangan teknologi berkembang pesat

Walau bagaimanapun, ini juga bermaksud bahawa manipulasi digital lebih mudah dilakukan. Seperti teknologi yang disebut deepfake, yang memiliki kemampuan untuk memanipulasi wajah dalam video melalui kecerdasan buatan.


Melalui teknologi ini, wajah seseorang dalam video seperti Ebit Lew dapat ditukar dengan wajah orang lain. Dengan manipulasi video, tipuan menjadi lebih nyata. Oleh itu, agar anda lebih berwaspada dan tidak tertipu, mari kenali deepfakes dengan lebih mendalam!


Gambaran Keseluruhan Sejarah dan Teknologi Deepfake

Pertama kali diperkenalkan pada tahun 2017, deepfake adalah teknik kejuruteraan imej manusia menggunakan teknologi kecerdasan buatan atau Artificial Intelligence (AI). Deepfakes berfungsi dengan menggabungkan gambar atau video asal dengan gambar atau video yang ingin anda manipulasi.


Lihat video dibawah, betapa sukarnya untuk mengenal pasti video deepfake.


Jadi, jenis perisian apa yang digunakan untuk membuat deepfakes? Kembali pada tahun 2018, aplikasi FakeApp dilancarkan. Dengan aplikasi ini, pengguna dapat mengedit dan menukar wajah orang dengan output video.


Aplikasi ini menggunakan algoritma dan teknologi khas. Aplikasi serupa yang lain adalah DeepFaceLab, FaceSwap dan myFakeApp. FakeApp, misalnya, dapat membuat rekonstruksi wajah yang tepat dan menerapkannya dalam video atau gambar bergerak.


Apakah Bahaya DeepFakes?

Beralih semula kepada isu video Iuucah menyerupai Ebit Lew, tidak mustahil ia merupakan Deepfake. Kerana kecanggihannya, teknologi deepfake sering digunakan untuk jnayah seperti membuat kandungan poornografi untuk selebriti atau orang yang dikenali untuk mebaIas deendam, berita paIsu atau digunakan untuk muslihat jahat.


Harus ingat, Ebit Lew bukanlah satu-satunya selebriti yang menjadi mangsa. Beberapa tokoh dan selebriti popular pernah menjadi mngsa deepfakes. Ini termasuk Daisy Ridley dan Gal Gadot.

Seperti di Malaysia, beberapa selebriti pernah menjadi mngsa antaranya aktor Zulariffi, Idris Khan dan ahli politik Dato’ Seri Mohamed Azmin Ali.


Secara jelas kita dah tahu apa agenda mereka melakukan muslihat jahat ini. Deepfakes dapat mengancam reputasi, imej dan kredibiliti seseorang. Terutama jika deepfake yang dihasilkan kelihatan nyata dan serupa dengan yang asli.


Deepfake yang sudah tersebar boleh mengancam kedudukan dan pekerjaan seseorang. Seperti yang terjadi kepada Ebit Lew, dari dulu hingga sekarang dia sangat terkenal membuat aktiviti kemasyarakatan dan tak henti memberi sumbangan kepada orang ramai.


Bolehkah Video DeepFake Dikenakan Tindakan Undang-undang?


Cara untuk melawan deepfake

Pada dasarnya, melawan kejahatan deepfake sama dengan cara memerangi hoaks dan berita paIsu. Pertama, jangan langsung percaya dengan kabar yang beredar, sekalipun itu berbentuk video. Selalu kroscek kebenarannya dari berbagai sumber terpercaya. 


Selain itu, jangan mudah untuk menyebarkan sesuatu yang kita belum ketahui kebenarannya. Karena ini nantinya bisa membahayakan diri sendiri dan orang lain. Apabila mampu, lakukan edukasi terkait deepfake terhadap keluarga atau orang terdekat.


Jadi jangan mudah menyebarkan sesuatu yang kita tidak tahu sebenarnya. Kerana ini boleh membaahayakan diri sendiri dan orang lain. Sekiranya anda boleh, berikan pendidikan mengenai deepfake kepada keluarga atau orang terdekat anda.

Sumber : Murai

No comments:

Post a Comment

Note: Only a member of this blog may post a comment.