Kecerdasan buatan telah membuka kuasa untuk mencipta “deepfake” – media yang sangat realistik tetapi direka bentuk. Daripada video yang menukar wajah seseorang dengan lancar kepada suara klon yang kedengaran tidak dapat dibezakan daripada orang sebenar, deepfake mewakili era baru di mana melihat (atau mendengar) tidak semestinya mempercayai. Teknologi ini membawa peluang menarik untuk inovasi merentas industri, tetapi juga menimbulkan risiko serius.
Dalam artikel ini, kami akan meneroka apa itu AI deepfake, bagaimana ia berfungsi, serta peluang dan bahaya utama yang dibawanya dalam dunia hari ini.
Apa itu Deepfake?
Sebuah deepfake adalah media sintetik (video, audio, imej atau teks) yang dijana atau diubah suai oleh AI untuk meniru kandungan sebenar dengan meyakinkan. Istilah ini berasal daripada “deep learning” (algoritma AI maju) dan “fake”, dan mula digunakan secara meluas sekitar tahun 2017 di forum Reddit di mana pengguna berkongsi video selebriti yang wajahnya ditukar.
Deepfake moden sering menggunakan teknik seperti rangkaian adversarial generatif (GAN) – dua rangkaian neural yang berlatih antara satu sama lain untuk menghasilkan palsu yang semakin realistik. Sepanjang dekad lalu, kemajuan AI telah memudahkan dan menjimatkan kos penciptaan deepfake: semua orang yang mempunyai sambungan internet kini mempunyai akses kepada penjana media sintetik.
Deepfake awal mendapat reputasi buruk kerana kegunaan jahat (seperti memasukkan wajah selebriti ke dalam video palsu), memberikan teknologi ini imej negatif. Namun, tidak semua kandungan sintetik yang dijana AI bersifat jahat. Seperti banyak teknologi lain, deepfake adalah .
Seperti yang dinyatakan oleh Forum Ekonomi Dunia, walaupun terdapat banyak contoh negatif, “kandungan sintetik sebegini juga boleh membawa manfaat.” Dalam bahagian berikut, kami akan membincangkan beberapa aplikasi positif utama deepfake AI, diikuti oleh risiko dan penyalahgunaan serius yang berkaitan dengan teknologi ini.
Peluang dan Aplikasi Positif Deepfake AI
Walaupun reputasinya kontroversial, deepfake (sering dirujuk secara neutral sebagai “media sintetik”) menawarkan beberapa aplikasi positif dalam bidang kreatif, pendidikan, dan kemanusiaan:
-
Hiburan dan Media: Pembuat filem menggunakan teknik deepfake untuk mencipta kesan visual yang menakjubkan dan juga “mengembalikan usia muda” pelakon di skrin. Contohnya, filem Indiana Jones terbaru secara digital mencipta semula imej Harrison Ford yang lebih muda dengan melatih AI menggunakan rakaman beliau selama beberapa dekad. Teknologi ini boleh menghidupkan semula tokoh sejarah atau pelakon yang telah meninggal dunia untuk persembahan baru dan meningkatkan sulih suara dengan menyelaraskan pergerakan bibir dengan tepat.
Secara keseluruhan, deepfake boleh menghasilkan kandungan yang lebih mendalam dan realistik dalam filem, televisyen, dan permainan. -
Pendidikan dan Latihan: Teknologi deepfake boleh menjadikan pengalaman pembelajaran lebih menarik dan interaktif. Pengajar boleh menjana simulasi pendidikan atau pementasan semula sejarah yang menampilkan figura hidup tokoh terkenal, menghidupkan pelajaran sejarah atau sains.
Senario lakonan realistik yang dijana AI (contohnya, mensimulasikan kecemasan perubatan atau situasi kokpit penerbangan) boleh membantu melatih profesional dalam bidang kesihatan, penerbangan, tentera dan lain-lain. Simulasi yang dijana AI ini menyediakan pelajar untuk situasi dunia sebenar dengan cara yang selamat dan terkawal. -
Aksesibiliti dan Komunikasi: Media yang dijana AI memecahkan halangan bahasa dan komunikasi. Penterjemah deepfake boleh menyulih video ke dalam pelbagai bahasa sambil mengekalkan suara dan gaya pembicara – seorang artis, FKA Twigs, malah mencipta deepfake dirinya yang bercakap dalam bahasa yang tidak dikuasainya. Ini mempunyai potensi menyelamatkan nyawa: perkhidmatan kecemasan menggunakan terjemahan suara AI untuk mentafsir panggilan 911 dengan lebih cepat, mengurangkan masa terjemahan sehingga 70% dalam situasi kritikal.
Sama juga, avatar bahasa isyarat yang digerakkan oleh deepfake sedang dibangunkan untuk menterjemah ucapan ke bahasa isyarat bagi penonton pekak, menghasilkan video isyarat yang sangat realistik sehingga algoritma tidak dapat membezakannya daripada penutur isyarat sebenar dalam kajian awal. Satu lagi penggunaan berimpak adalah klon suara peribadi bagi mereka yang kehilangan keupayaan bercakap – contohnya, seorang Ahli Kongres AS yang menghidap penyakit neurodegeneratif baru-baru ini menggunakan klon suara AI sendiri untuk berucap kepada penggubal undang-undang selepas beliau tidak dapat bercakap lagi, membolehkan beliau “bercakap dengan nada suaranya sendiri” walaupun dalam keadaan sakit.
Aplikasi sebegini menunjukkan deepfake meningkatkan aksesibiliti dan memelihara suara serta komunikasi individu. -
Kesihatan dan Terapi: Dalam bidang perubatan, media sintetik boleh membantu penyelidikan dan kesejahteraan pesakit. Imej perubatan yang dijana AI boleh menambah data latihan untuk algoritma diagnostik – satu kajian mendapati sistem AI untuk pengesanan tumor yang dilatih kebanyakannya menggunakan imej MRI yang dijana GAN berprestasi setanding dengan sistem yang dilatih menggunakan imbasan sebenar. Ini bermakna deepfake boleh meningkatkan AI perubatan dengan menghasilkan data latihan yang banyak tanpa mengorbankan privasi pesakit.
Dari segi terapi, deepfake terkawal juga boleh menenangkan pesakit. Contohnya, penjaga telah mencuba mencipta video di mana orang tersayang pesakit Alzheimer muncul sebagai versi muda mereka (dari tempoh yang paling diingati pesakit), mengurangkan kekeliruan dan kebimbangan pesakit. Dalam kempen kesihatan awam, teknik deepfake telah membolehkan mesej yang kuat: dalam satu kempen anti-malaria, mesej video bintang bola sepak David Beckham diubah suai AI supaya “beliau bercakap” dalam sembilan bahasa berbeza, membantu kempen kesedaran mencapai setengah bilion orang di seluruh dunia. Ini menunjukkan bagaimana media sintetik boleh memperkuat mesej penting kepada pelbagai audiens. -
Privasi dan Anonimitas: Secara paradoks, keupayaan menukar wajah yang sama yang boleh mencipta berita palsu juga boleh melindungi privasi. Aktivis, pemberi maklumat atau individu yang terdedah boleh dirakam dengan wajah mereka digantikan oleh wajah AI yang realistik, menyembunyikan identiti tanpa menggunakan kabur yang jelas.
Satu contoh penting ialah dokumentari “Welcome to Chechnya” (2020), yang menggunakan lapisan wajah AI untuk menyembunyikan identiti aktivis LGBT yang melarikan diri dari penganiayaan sambil mengekalkan ekspresi dan emosi wajah mereka. Dengan cara ini, penonton dapat berhubung dengan kemanusiaan subjek walaupun wajah yang dipaparkan bukan asli.
Penyelidik sedang mengembangkan idea ini ke dalam alat untuk privasi harian – contohnya, sistem “anonimisasi” eksperimen yang boleh menggantikan wajah seseorang dalam foto yang dikongsi di media sosial dengan penampilan sintetik serupa jika mereka tidak memberi kebenaran untuk dikenali. Begitu juga, teknologi “kulit suara” boleh mengubah suara pembicara secara masa nyata (seperti dalam permainan dalam talian atau mesyuarat maya) untuk mengelakkan bias atau gangguan sambil masih menyampaikan emosi dan niat asal.
Aplikasi ini menunjukkan deepfake mungkin membantu individu mengawal identiti digital dan keselamatan mereka.
Penukaran wajah deepfake boleh digunakan untuk menjadikan individu anonim. Contohnya, filem Welcome to Chechnya melindungi aktivis berisiko dengan menampal wajah mereka dengan wajah pelakon sukarelawan melalui AI, menyembunyikan identiti sambil mengekalkan ekspresi semula jadi. Ini menunjukkan bagaimana media sintetik boleh melindungi privasi dalam situasi sensitif.
Kesimpulannya, deepfake adalah pedang bermata dua. Di satu sisi, “kandungan sintetik bukanlah secara semula jadi positif atau negatif – impaknya bergantung pada pelaku dan niat mereka”. Contoh di atas menonjolkan peluang untuk memanfaatkan teknologi deepfake bagi kreativiti, komunikasi, dan kebaikan sosial.
Namun, sisi gelap alat yang berkuasa ini adalah potensi besar untuk kemudaratan apabila digunakan secara jahat. Tahun-tahun kebelakangan ini menyaksikan banyak kisah amaran tentang penipuan dan penyalahgunaan yang didorong oleh deepfake, yang akan kami teliti seterusnya.
Risiko dan Penyalahgunaan Deepfake
Penyebaran deepfake yang mudah dibuat juga menimbulkan kebimbangan dan ancaman serius. Malah, satu tinjauan pada 2023 mendapati 60% rakyat Amerika “sangat bimbang” tentang deepfake – menjadikannya ketakutan nombor satu berkaitan AI mereka. Risiko utama yang berkaitan dengan teknologi deepfake termasuk:
-
Maklumat Palsu dan Manipulasi Politik: Deepfake boleh dijadikan senjata untuk menyebarkan disinformasi secara besar-besaran. Video atau audio palsu tokoh awam boleh menggambarkan mereka berkata atau melakukan perkara yang tidak pernah berlaku, menipu orang ramai. Kepalsuan sebegini boleh merosakkan kepercayaan terhadap institusi, mempengaruhi pendapat awam, atau mencetuskan kekacauan.
Contohnya, semasa perang Rusia di Ukraine, video deepfake yang menunjukkan Presiden Volodymyr Zelensky seolah-olah menyerah tersebar; walaupun ia cepat disangkal kerana kecacatan ketara (seperti kepala yang terlalu besar dan suara pelik), ia menunjukkan potensi musuh menggunakan palsu AI dalam propaganda.
Sama juga, imej palsu letupan berhampiran Pentagon menjadi viral pada 2023 dan menyebabkan pasaran saham merosot seketika sebelum pihak berkuasa menjelaskan ia dijana AI.Apabila deepfake semakin baik, kebimbangan adalah ia boleh digunakan untuk mencipta berita palsu yang sangat meyakinkan, menghakis kemampuan orang ramai membezakan realiti daripada rekaan. Ini bukan sahaja menyebarkan pembohongan tetapi juga mencipta kesan “dividen pembohong” – orang mungkin mula tidak mempercayai video atau bukti asli, mendakwa ia deepfake. Akibat keseluruhannya adalah penghakisan kebenaran dan kehilangan keyakinan terhadap media dan wacana demokrasi.
-
Pornografi Tanpa Persetujuan dan Gangguan: Salah satu kegunaan jahat paling awal dan meluas deepfake adalah penciptaan kandungan lucah palsu. Dengan beberapa gambar, penyerang (sering melalui forum atau aplikasi tanpa nama) boleh menghasilkan video pornografi realistik individu – biasanya menyasarkan wanita – tanpa persetujuan mereka. Ini adalah pelanggaran privasi dan gangguan seksual yang serius.
Kajian mendapati bahawa majoriti besar video deepfake dalam talian (sekitar 90–95%) adalah pornografi tanpa persetujuan, hampir semuanya menampilkan mangsa wanita. Video palsu sebegini boleh memusnahkan secara peribadi, menyebabkan penghinaan, trauma, kerosakan reputasi, malah ugutan pemerasan. Pelakon terkenal, wartawan, dan individu biasa telah mendapati wajah mereka dilekatkan pada kandungan dewasa.
Pihak berkuasa dan pembuat dasar semakin risau dengan trend ini; contohnya, di AS, beberapa negeri dan kerajaan persekutuan telah mencadangkan atau meluluskan undang-undang untuk mengkriminalkan pornografi deepfake dan memberi mangsa akses undang-undang. Kerosakan pornografi deepfake menekankan bagaimana teknologi ini boleh dieksploitasi untuk melanggar privasi, menyasarkan individu (sering dengan bias anti-wanita), dan menyebarkan imej palsu fitnah dengan kos rendah kepada pelaku.
-
Penipuan dan Penyamaran: Deepfake muncul sebagai senjata bahaya baru untuk penjenayah siber. Klon suara AI dan video deepfake langsung digunakan untuk menyamar sebagai orang dipercayai demi keuntungan penipuan. FBI memberi amaran bahawa penjenayah menggunakan klon suara/video AI untuk menyamar sebagai ahli keluarga, rakan sekerja atau eksekutif – menipu mangsa supaya menghantar wang atau mendedahkan maklumat sensitif.
Penipuan ini, sering kali merupakan versi canggih penipuan “penyamaran”, telah menyebabkan kerugian besar. Dalam satu kes sebenar, pencuri menggunakan AI untuk meniru suara CEO dan berjaya meyakinkan seorang pekerja memindahkan €220,000 (kira-kira $240,000). Dalam insiden lain, penjenayah deepfake kehadiran video CFO syarikat dalam panggilan Zoom untuk meluluskan pemindahan $25 juta ke akaun palsu.
Serangan kejuruteraan sosial berasaskan deepfake sedang meningkat – laporan menunjukkan lonjakan besar dalam penipuan deepfake di seluruh dunia dalam beberapa tahun kebelakangan ini. Gabungan suara/video palsu yang sangat meyakinkan dan kelajuan komunikasi digital boleh mengejutkan mangsa. Perniagaan sangat berisiko daripada “penipuan CEO” atau arahan palsu daripada eksekutif.
Jika pekerja tidak dilatih untuk skeptikal terhadap media audiovisual, mereka mungkin mengikuti arahan deepfake yang kelihatan sah. Akibatnya boleh berupa kecurian dana, kebocoran data, atau kerosakan mahal lain. Ancaman ini menyebabkan pakar keselamatan menggesa amalan pengesahan identiti yang lebih kukuh (contohnya, menggunakan saluran selamat untuk mengesahkan permintaan) dan alat pengesanan teknikal untuk mengesahkan audio dan video dalam transaksi sensitif.
-
Penghakisan Kepercayaan dan Cabaran Undang-Undang: Kemunculan deepfake mengaburkan garis antara realiti dan fiksyen, menimbulkan kebimbangan sosial dan etika yang luas. Apabila kandungan palsu menjadi lebih meyakinkan, orang mungkin mula meragui bukti asli – senario berbahaya untuk keadilan dan kepercayaan awam.
Contohnya, video sebenar salah laku boleh ditolak sebagai “deepfake” oleh pelaku, menyukarkan kewartawanan dan prosiding undang-undang. Penghakisan kepercayaan terhadap media digital sukar diukur, tetapi sangat merosakkan dari masa ke masa.
Deepfake juga menimbulkan isu undang-undang rumit: Siapa pemilik hak imej AI seseorang? Bagaimana undang-undang fitnah atau pencemaran nama baik dikenakan pada video palsu yang merosakkan reputasi? Terdapat juga persoalan persetujuan dan etika – menggunakan wajah atau suara seseorang dalam deepfake tanpa kebenaran biasanya dianggap melanggar hak mereka, namun undang-undang masih belum sepenuhnya mengatasi realiti ini.
Beberapa bidang kuasa telah mula mewajibkan media yang diubah suai dilabel dengan jelas, terutamanya jika digunakan dalam iklan politik atau pilihan raya. Selain itu, platform seperti rangkaian sosial berada di bawah tekanan untuk mengesan dan menghapus deepfake berbahaya (serupa dengan cara mereka mengendalikan bentuk disinformasi atau media yang dimanipulasi lain).
Dari segi teknologi, pengesanan deepfake adalah “perlumbaan senjata”. Penyelidik membina sistem pengesanan AI untuk mengenal pasti artifak halus kepalsuan (contohnya, anomali dalam aliran darah wajah atau corak berkelip). Namun, apabila pengesanan bertambah baik, kaedah deepfake juga bertambah canggih untuk mengelaknya – membawa kepada pertempuran kucing dan tikus yang berterusan.
Semua cabaran ini menjelaskan bahawa masyarakat mesti berusaha untuk mengesahkan media secara autentik dalam era AI dan memegang pencipta deepfake bertanggungjawab atas penyalahgunaan.
Menavigasi Era Deepfake: Mencapai Keseimbangan
AI deepfake menghadirkan dilema klasik kemajuan teknologi: janji besar yang disertai bahaya. Di satu pihak, kita mempunyai penggunaan kreatif dan bermanfaat yang belum pernah terjadi sebelum ini – daripada memelihara suara dan menterjemah bahasa hingga membayangkan bentuk penceritaan baru dan melindungi privasi.
Di pihak lain, penggunaan jahat deepfake mengancam privasi, keselamatan, dan kepercayaan awam. Ke depan, adalah penting untuk memaksimumkan manfaat sambil meminimumkan kemudaratan.
Usaha sedang dijalankan di pelbagai bidang. Syarikat teknologi dan penyelidik melabur dalam alat pengesanan dan rangka kerja keaslian (seperti tanda air digital atau piawaian pengesahan kandungan) untuk membantu orang membezakan media asli dan palsu. Pembuat dasar di seluruh dunia juga sedang meneroka undang-undang untuk membendung amalan deepfake yang paling menyalahgunakan – contohnya, mengharamkan pornografi palsu, disinformasi pilihan raya, atau mewajibkan pendedahan apabila media telah diubah suai oleh AI.
Namun, peraturan sahaja mencabar memandangkan teknologi berkembang pesat dan mudah melintasi bidang kuasa. Pendidikan dan kesedaran sama pentingnya: literasi digital boleh mengajar orang ramai bagaimana menilai media secara kritikal dan mengenal pasti tanda-tanda deepfake, sama seperti orang belajar mengenal pasti penipuan e-mel atau percubaan phishing.
Jika pengguna tahu bahawa rakaman “sempurna” atau sensasi mungkin direka, mereka boleh mengambil kira sebelum bertindak balas atau berkongsi.
>>> Klik untuk ketahui lebih lanjut:
Akhirnya, fenomena deepfake akan terus wujud – “jin sudah keluar dari botol dan kita tidak boleh memasukkannya kembali”. Daripada panik atau larangan total, pakar mengesyorkan pendekatan seimbang: menggalakkan inovasi bertanggungjawab dalam media sintetik sambil membangunkan penjagaan ketat untuk mengelakkan penyalahgunaan.
Ini bermakna memupuk aplikasi positif (dalam hiburan, pendidikan, aksesibiliti, dan lain-lain) di bawah garis panduan etika, dan pada masa yang sama melabur dalam langkah keselamatan, rangka kerja undang-undang, dan norma untuk menghukum penggunaan jahat. Dengan bekerjasama – ahli teknologi, pengawal selia, syarikat, dan rakyat – kita boleh membina masa depan di mana deepfake AI adalah “biasa, dikenali dan dipercayai”. Dalam masa depan sebegini, kita memanfaatkan kreativiti dan kemudahan yang ditawarkan deepfake, sambil berwaspada dan tahan terhadap bentuk penipuan baru yang dibolehkannya.
Peluang sangat menarik, dan risikonya nyata – mengenal pasti kedua-duanya adalah langkah pertama dalam membentuk landskap media berasaskan AI yang memberi manfaat kepada masyarakat secara keseluruhan.