• 2 days ago
新闻报报看| 被誉为“AI教父”的诺贝尔物理学奖得主辛顿Geoffrey Hinton,最近在接受BBC采访时就大胆预测,未来30年内,AI可能有10%至20%的几率,导致人类灭绝。这番言论一出,无疑进一步加深了公众的忧虑。(主播: 庄文杰、黄宇恒)

Category

🗞
News
Transcript
00:00看影片之前提醒你
00:01熱點網站還有更多內容
00:04AI人工智能技術持續突破
00:07讓AI在未來會不會完全取代人類的話題
00:11近年來在業界備受關注
00:14大家也明白了
00:15科技就像一把雙刃劍
00:17你在享受AI帶來的便利之餘
00:20也有人開始對於AI的潛在風險
00:23越來越擔心了
00:25誰呢
00:25被譽為AI教父的諾貝爾物理學獎得主
00:29星頓最近他在接受英國BBC電視台訪問的時候
00:33就大膽的預測
00:34未來30年之內
00:36AI有可能有10%到20%的機率
00:40導致人類滅絕
00:42這位大師的言論一出
00:45無疑進一步加深公眾對於
00:47AI發展這個技術的憂慮
00:49那這裡先幫大家簡單的科普
00:52有關星頓的背景
00:54方便大家來評估
00:55他說的話份量到底有多重
00:58星頓堪稱是AI技術的先驅
01:01他長期都在培養像是
01:03ChatGPT這類聊天機器人背後的核心AI技術
01:08他曾經在谷歌工作長達10年
01:11不過在去年就宣佈辭職了
01:13因為他突然意識到
01:15AI正在變得比人類科學家更聰明
01:20AI的發展速度遠遠超出他的預期
01:23這種快速進步讓他越來越擔心
01:27AI技術的發展會不會不受控制呢
01:30所以他就決定離職
01:32專注的研究AI的影響
01:35並向公眾發出警示
01:37提醒大家應該要怎麼樣
01:39防止AI可能對人類造成威脅
01:42換句話說
01:43各位
01:44研究AI的人
01:46現在竟然開始擔心
01:49AI會對人類造成什麼重大的影響
01:52
01:53那星頓為什麼會推測
01:54AI在未來30年之內
01:56有可能會導致人類滅絕呢
01:59他提出了一個引人深思的推理
02:02大家一起來思考看看
02:03他說
02:04理論上
02:05比較聰明的存在
02:07往往能夠控制比較不聰明的存在
02:11什麼意思呢
02:12也就是強者支配弱者的意思
02:15
02:16大家把這個理論套用到
02:18人類跟AI的關係上來看一看
02:20隨著AI現在大家也知道
02:23它已經越來越聰明了
02:25或許到未來發展到某一天
02:28跟強大的AI系統智慧相比
02:31我們人類很有可能到時候
02:33會像三歲小孩一樣的那個智商
02:36那麼的誇張
02:37那相反的
02:38大家應該不太會看到
02:40聰明的存在
02:41被不聰明的存在給控制吧
02:44
02:45不過案例就很少
02:46星頓就說
02:47他能想到的例子大概也只有
02:50聰明的母親
02:51被不聰明的嬰兒給控制
02:54那他也說到
02:55現在已經有很多AI專家認為
02:58在未來20年
03:00要開發出比人類還要聰明的AI
03:03也不是不可能的事哦
03:04只是這個想法非常的恐怖
03:07因為AI的發展速度實在是太快了
03:10比他所預期的還要快
03:13因此他就呼籲各國政府
03:15一定要加強對AI的監管
03:18避免
03:19避免AI威脅到人類
03:22其實
03:24其實
03:25其實
03:26其實
03:27其實
03:28其實
03:29其實
03:30其實
03:31其實
03:32其實
03:33其實
03:34其實
03:35其實
03:36其實
03:37其實
03:38其實
03:39其實
03:40其實
03:41其實
03:42其實
03:43其實
03:44其實
03:45其實
03:46其實
03:47其實
03:48其實
03:49其實
03:50其實

Recommended