• 9 months ago
八点最热报 | 网络安全服务公司LGMS创办人冯宗福表示,尽管深伪技术制作出来的影片,仿真度非常高, 但民众还是可以通过微表情和肢体语言,来分辨真假,如果发现影片中的人物面部表情不自然,肢体语言不断重复,那就要提高警惕了,因为这很可能是虚假影片.。(主播:梁宝仪)

Category

🗞
News
Transcript
00:00看影片之前提醒大家
00:02《熱點網站》有更多內容
00:04邁入人工智能時代
00:07新穎的網絡詐騙手法也層出不窮
00:10如今不只是照片可以造假
00:13就連影片當中的人物也能夠換臉
00:16影片當中講話的內容也可以被換掉
00:19被不法分子利用來進行詐騙
00:22近期網上流傳一則廣告
00:24顯示新加坡總理李顯龍
00:26在接受訪問的時候
00:27與主持人一起宣傳加密貨幣的投資
00:31還邀請民眾點擊鏈接來賺取被動收入
00:35那這段視頻原本並不是這樣的內容
00:38是詐騙集團他們利用深偽技術
00:41deep fake來進行篡改的虛假影片
00:45讓一些民眾真假難分
00:46墜入了騙局
00:48那究竟深偽技術是怎麼樣的一種技術呢
00:51在網絡詐騙越來越猖獗的時代
00:54民眾又能夠如何去辨別網上的真真假假呢
00:58李顯龍在面子書發文表示
01:00自己並不是唯一的受害者
01:02新加坡副總理黃玄才在這之前
01:05也被不法分子利用人工智能技術
01:08來模仿他們的聲音和圖像
01:10然後將他們在官方場合
01:13公開的畫面內容進行篡改
01:15製作出幾乎看不出破綻的假視頻
01:19他警告這種利用深偽技術
01:22來傳播虛假信息的現象
01:23只會越來越嚴重
01:25因此促請民眾要保持警惕
01:28不要上當
01:29那我國的通訊部副部長張念群
01:31在接受八點自由報訪問時就表示
01:34用深偽技術來篡改一些名人的影像
01:37已經不是什麼新鮮事了
01:39其實我國的首相安華也是受害者之一
01:42他指出網上曾經出現
01:44安華教人投資的廣告
01:47還說只需要一千兩百令吉
01:49每個月就能夠獲取二十五萬令吉的被動收入
01:53如果看到有關影片的人稍微仔細的想想
01:57就不難發現影片內容是非常的不合理
02:00絕對不會去相信
02:02他指出現階段被篡改的影片受害者
02:05大多數是知名人士
02:08但是隨著人工智能的成本越來越低
02:10不久的將來
02:12普通老百姓也可能會被換臉
02:14成為人工智能詐騙案的最新目標
02:18網絡安全服務公司LGMS的創辦人
02:21馮宗福在受訪時解釋
02:23身為技術其實是通過電腦深度學習
02:27讓人工智能去分析大量的畫面圖像
02:31模仿特定人士的面部特徵
02:34一般上被模仿的對象都是公眾人物
02:37因為他們的照片還有影片素材
02:39很容易在網上就可以找到
02:42不像平民老百姓
02:44就可能就沒有這麼容易了
02:47除非不法分子掌握了你各種不同角度的視頻
02:50或者照片
02:52然而他認為這種情況或許不會持續太久
02:55因為如果人工智能進一步升級的話
03:00或許未來你我都可能會成為
03:02身為技術的受害者
03:06(電腦深度學習)
03:07(電腦深度學習)
03:09(電腦深度學習)
03:10(電腦深度學習)
03:12(電腦深度學習)
03:14(電腦深度學習)
03:16(電腦深度學習)
03:18(電腦深度學習)
03:20(電腦深度學習)
03:22新加坡總理李顯龍不做總理
03:24要你加入加密貨幣交易
03:27誒誒誒 這可不是他本人所說的話
03:29是不法分子利用深偽技術
03:31deep fake 偽造的虛假影片
03:34無論是嘴型 聲音還是神情
03:37都模仿得唯妙唯肖
03:38如果不仔細觀察的話
03:40基本上看不出任何破綻
03:42這也是為什麼有越來越多人
03:45墜入這種新型的人工智能騙局
03:48通訊部副部長張念群
03:49在接受八點四日報訪問時指出
03:52國外利用深偽技術來進行詐騙的案件
03:55在近年來有越來越多的趨勢
03:57馬來西亞遲早也會跟著淪陷
03:59更恐怖的是
04:01未來這些科技不只是有名人受害
04:03普通老百姓也可能會被換臉的
04:06我覺得用這種新科技來去行詐
04:10我覺得那只是時間上遲早的一個問題
04:13可能這個技術還沒有真的是
04:15被廣泛地在使用著
04:17因為它現在可能只是把它用來
04:19偽造一些名人
04:20有影響力的知名人士的一些影像
04:22那麼我覺得遲早下一步
04:24它很可能就確實是會製造
04:26個人可能不再是專注在名人
04:29可是卻想要去取得你的信任
04:33不過網絡安全服務公司
04:36LGMS創辦人馮宗福表示
04:38儘管深偽技術製作出來的影片
04:41仿真度非常高
04:42但是民眾還是可以通過
04:44微表情和肢體語言來分辨真假
04:47如果發現影片中的人物
04:49面部表情不自然
04:50肢體語言不斷重複
04:52那就要提高警惕了
04:54因為這很可能是虛假影片
04:56如果這個人我們對他是很了解的
04:58知道他講話速度是怎麼樣
04:59他的口語是怎麼樣的話
05:01其實還可以根據這種經驗
05:03來做一個判斷
05:04當然這種經驗不是完完全全
05:05確實的可以確定到
05:07這個是不是真人
05:08還是這個是AI
05:09可是根據目前的情況
05:10我們還大約還可以看得出
05:12這個是不是AI做出來的
05:13只是說這個情況不會維持太久
05:15我覺得我們會去到一個階段
05:17AI連這種小的動作
05:19小的細節也是可以把它修飾掉
05:22除了虛假影片做得越來越逼真
05:24馮宗福提醒
05:26民眾更要小心的是變身詐騙
05:28不法分子很常利用人工智能
05:30辨別人的聲線
05:32再生成不同的句子進行詐騙
05:35他也展示了前衛生部長凱里的兩段音頻
05:38可以聽到無論是喘氣聲還是停頓
05:53幾乎是沒有區別的
05:55當我們有了一個人的聲音模型
05:58我們可以通過這個模型來做很多東西
06:00目前我們可以做到就是Post-Production
06:02就是做一個視頻或者一個音頻出來
06:04那麼我相信在不久的將來
06:06我們可以做實時的溝通
06:08就是Interactive
06:09當以後我們在比如說
06:10一些社交媒體打電話的時候
06:12可能你聽到那把聲音
06:13是某個著名演員
06:14或者是某個著名政治家的聲音
06:16絕對是可以做到的
06:17如今的網絡世界連聽到的聲音
06:20看到的樣子也未必是真的
06:22那民眾應該如何避免自己
06:24墜入詐騙圈套呢
06:26張念群和馮宗福都表示
06:28在這個資訊發達的時代
06:30民眾必須要學會冷靜
06:32看到任何人事物都要懂得思考
06:34不要衝動
06:35最重要的是查證
06:37最簡單的事情
06:38永遠是你要去跟對方進行一些
06:41更完整的對話
06:42你要去做一些驗證
06:43例如你要去問對方
06:45我們昨天晚上一起去哪裡吃晚餐
06:47我們上一次一起去旅行
06:50是去什麼地方
06:51就是你要去問一些這樣子的問題
06:53來去檢驗對方的身分
06:55所以這就是為什麼我們很強調
06:57對個人的資訊
06:58你要有非常謹慎的一個態度
07:00你如果是一個很輕而易舉的
07:02就把自己的太多的私生活
07:04附入在你的社交媒體上的人
07:06那麼當然可能對方就更容易掌握
07:08你的生活的一些狀態
07:10為什麼今時今日的詐騙會來得這麼多呢
07:13因為現在是一個資訊爆炸的時代
07:15我們人已經被科技訓練得
07:18越來越快了
07:19需要更快的資訊處理了
07:20其實是我們人類的弱點了
07:22所以我們現在是需要冷靜下來
07:24無論我們聽到了看到了
07:26在將來未必是真的
07:28未來的世界
07:33無論是聲音照片還是影像
07:36都有可能是假的
07:38或許大家在日常生活當中
07:40不太常看到身為技術
07:42deep fake偽造的影像
07:44但是如果你是社交媒體的活躍用戶
07:47相信都曾經在網絡上
07:49看過不少移花接木的廣告
07:52利用知名人士的肖像來宣傳一些產品
07:55儘管許多受害者已經呼籲網民舉報
07:58但是這種問題似乎沒有緩解的跡象
08:02明天的專題報導將會跟你聊一聊
08:04在社交媒體流傳的廣告
08:06有哪一些是真的
08:08哪一些是假的
08:09被濫用肖像的知名人士
08:11又受到了什麼樣的影響
08:13而執法當局又採取了什麼行動
08:16來應對這些問題呢
08:19(音樂)
08:22(音樂結束)
08:23(字幕由 Amara.org 社群提供)
08:26(字幕由 Amara.org 社群提供)

Recommended