(SeaPRwire) – Sepanjang tahun 2025, deepfake telah meningkat dengan ketara. Wajah, suara dan persembahan seluruh badan yang dijana AI yang meniru manusia sebenar telah meningkat kualitinya jauh melebihi apa yang diramalkan oleh ramai pakar beberapa tahun lalu. Ia juga semakin digunakan untuk menipu orang.
Bagi banyak senario harian — terutamanya panggilan video beresolusi rendah dan media yang dikongsi di platform media sosial — realisme mereka kini cukup tinggi untuk memperdayakan penonton bukan pakar dengan konsisten. Dari segi praktikal, media sintetik telah menjadi tidak dapat dibezakan daripada rakaman tulen bagi orang biasa dan, dalam beberapa kes, malah bagi institusi.
Dan lonjakan ini tidak terhad kepada kualiti. Jumlah deepfake telah berkembang secara mendadak: Firma keselamatan siber menganggarkan peningkatan daripada kira-kira 500,000 deepfake dalam talian pada 2023 kepada kira-kira 8 juta pada 2025, dengan pertumbuhan tahunan menghampiri 900%.
Saya seorang saintis komputer yang dan media sintetik lain. Dari sudut pandangan saya, saya melihat situasi akan pada 2026 apabila deepfake menjadi pelakon sintetik yang mampu bertindak balas terhadap orang dalam masa nyata. https://www.youtube.com/embed/2DhHxitgzX0?wmode=transparent&start=0 Hampir sesiapa sahaja kini boleh membuat video deepfake.
Peningkatan dramatik
Beberapa perubahan teknikal mendasari eskalasi dramatik ini. Pertama, realisme video membuat lonjakan ketara berkat model penjanaan video yang direka khusus untuk . Model ini menghasilkan video yang mempunyai pergerakan koheren, identiti konsisten bagi orang yang digambarkan, dan kandungan yang masuk akal dari satu bingkai ke bingkai seterusnya. Model ini memisahkan maklumat berkaitan mewakili identiti seseorang daripada maklumat tentang pergerakan supaya pergerakan yang sama boleh , atau identiti yang sama boleh mempunyai pelbagai jenis pergerakan.
Model ini menghasilkan wajah yang stabil dan koheren tanpa kelipan, herotan atau distorsi struktur di sekitar mata dan garis rahang yang pernah menjadi bukti forensik deepfake yang boleh dipercayai.
Kedua, pengklonan suara telah melintasi apa yang saya panggil “ambang tidak dapat dibezakan.” Beberapa saat audio kini mencukupi untuk menjana – lengkap dengan intonasi semula jadi, ritma, penekanan, emosi, jeda dan bunyi pernafasan. Keupayaan ini sudah memacu penipuan berskala besar. Sesetengah peruncit utama melaporkan menerima sehari. Petunjuk persepsi yang dahulunya mendedahkan suara sintetik telah hampir hilang.
Ketiga, alat pengguna telah menolak halangan teknikal hampir kepada sifar. Naik taraf daripada OpenAI dan Google serta gelombang syarikat permulaan bermakna sesiapa sahaja boleh menerangkan idea, membiarkan model bahasa besar seperti ChatGPT OpenAI atau Gemini Google mereka skrip, dan . Agen AI boleh mengautomasikan keseluruhan proses. Keupayaan untuk menjana deepfake yang koheren, didorong oleh jalan cerita pada skala besar telah secara efektif didemokrasikan.
Gabungan kuantiti yang melonjak dan persona yang hampir tidak dapat dibezakan daripada manusia sebenar ini mencipta yang serius, terutamanya dalam persekitaran media di mana perhatian orang terpecah dan kandungan bergerak lebih pantas daripada yang boleh disahkan. Sudah terdapat kemudaratan dunia sebenar – daripada kepada dan – dimungkinkan oleh deepfake yang tersebar sebelum orang berpeluang menyedari apa yang berlaku. https://www.youtube.com/embed/syNN38cu3Vw?wmode=transparent&start=0 Penyelidik AI Hany Farid menerangkan bagaimana deepfake berfungsi dan sebaik mana ia menjadi.
Masa depan adalah masa nyata
Melihat ke hadapan, trajektori untuk tahun depan adalah jelas: Deepfake bergerak ke arah sintesis masa nyata yang boleh menghasilkan video yang sangat menyerupai nuansa penampilan manusia, menjadikannya lebih mudah untuk mereka mengelak sistem pengesanan. Sempadan sedang beralih daripada realisme visual statik kepada koheren temporal dan tingkah laku: model yang dan bukannya klip yang dipra-render.
Pemodelan identiti sedang menumpu kepada sistem bersepadu yang menangkap bukan sahaja rupa seseorang, tetapi bagaimana mereka . Hasilnya melangkaui “ini menyerupai orang X,” kepada “ini berkelakuan seperti orang X dari masa ke masa.” Saya menjangkakan keseluruhan peserta panggilan video akan disintesis dalam masa nyata; pelakon didorong AI interaktif yang wajah, suara dan gaya gerak tubuhnya menyesuaikan diri serta-merta kepada prompt; dan penipu yang menggunakan avatar responsif dan bukannya video tetap.
Apabila keupayaan ini matang, jurang persepsi antara media manusia sintetik dan tulen akan terus mengecil. Garisan pertahanan yang bermakna akan beralih daripada pertimbangan manusia. Sebaliknya, ia akan bergantung pada perlindungan peringkat infrastruktur. Ini termasuklah provenance selamat seperti media yang ditandatangani secara kriptografi, dan alat kandungan AI yang menggunakan spesifikasi . Ia juga akan bergantung pada alat forensik multimodal seperti makmal saya .
Hanya melihat lebih teliti pada piksel tidak lagi mencukupi.
, Profesor Sains Komputer dan Kejuruteraan; Pengarah, Makmal Forensik Media UB,
Artikel ini diterbitkan semula daripada di bawah lesen Creative Commons. Baca .
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.
![]()