Skip to playerSkip to main contentSkip to footer
  • yesterday
Default Description

Category

🎵
Music
Transcript
00:00哈喽大家早晨
00:07早晨
00:08今天是melody一周all in
00:10今天很特别
00:11今天有一个特别
00:12而且是有FB live team
00:14今天要关注一下最近一些校园里面
00:16兜售一些AI合成的不雅照事件
00:19所以今天我们请来的就是马来西亚通讯部副部长
00:22我们有YB张燕泉
00:24YB早安
00:25早安
00:26YB你好
00:27这个时候我们也欢迎大家
00:30如果对于这件事情上面有任何疑问
00:33想要问YB的话
00:34也可以上到我们melody的FB live上面
00:37直接把问题打上来
00:38是的
00:39那稍后我们就好好地来跟YB聊一聊这个事件
00:41因为这次在这世纪上面
00:43你看到YB真的是很用心地在陪伴着受害者
00:47开记者会
00:48也跟他们有比较密切的一些接触
00:51所以在这个事件上面可能有一些角度
00:54或者一些可能资讯我们是未必知道的
00:57我们今天好好来跟外面聊一聊
00:58首着melody
00:59刚刚听过就有twins的下一站天后
01:10早上你好我是杰森林珍泉
01:12早上你好我是Ryce的陈志康
01:14下一站我们要来到就是melody的一周all in
01:18今天有一个特别的单元就是因为之前我们也讨论过
01:23关于这个中学生在网上出售这些AI合成的笔雅照
01:28当然我们关心这个事件的时候也有一个很主要的人物
01:32他就是YB掌烟喘
01:34在这件事上面也都出了很多力
01:37也都在记者会上陪伴着很多受害者
01:41看一下他们的处理方式等等
01:44心情等等之类的
01:46所以今天我们不如直接跟YB谈一下这件事
01:50是的今天的melody一周all in
01:52我们的特别我们请来马来西亚通讯部的副部长
01:54YB张艳群
01:55早安
01:56早安
01:57我们来了解一下
01:58因为我们看到很多新闻的报导
02:00像有好几位这个事件上面的一些受害者
02:02有去向你们求助
02:04然后你们也有人陪他们去报案
02:06然后也开了这个记者会
02:08当初他们来求助的时候
02:10当时候你们办公室去协助他们
02:13有没有遇上怎样的一些难题
02:15那他们的那时候的心情
02:17心态又是怎么样的呢
02:19他们来找我们的时候
02:21其实是已经内部自己组织过
02:24而且主要是有所谓的
02:26刚刚毕业的校友
02:28这几位学姐
02:29她发现了这个事情之后
02:31她就开始去组织
02:33就是把这些所有的受害者们
02:35开始组织起来
02:36然后去跟大家说
02:37我们不应该就这样算了
02:39我们应该一起去报警
02:41因为很坦白说
02:43这些事件不是第一次发生在他们身上
02:47其实他们的
02:49跟他们谈论的过程中
02:50你其实会发现
02:51这可能已经变成很遗憾的变成
02:55在他们的中学生活里面
02:57几乎变成非常普遍的一件事情
03:01遗憾的要讲
03:02这可能变成一件非常普遍的一个事情
03:04可是这位学姐就觉得说
03:06我们不应该把它当成是一个习有一堂的事
03:09我们应该更主动的来去处理这个事件
03:12所以她就开始把大家召集在一起
03:15跟校方交涉
03:17那么也联系了我的办公室
03:19那么就在我们的陪同下
03:21带领他们一起去报警
03:23所以那么到后来
03:25当然一开始的时候
03:26因为他们报警的时间
03:28或者跟校方接洽的时间
03:30也很靠近开灾节假期
03:33所以当时他们也给了下午学校
03:35一段时间能够更好的处理
03:38那么当然在这个等待的期间里面
03:41可能就也发生了一些事件
03:44包括说我们在陪同他们去报警的时候
03:47因为警方也要跟校方拿一些资料
03:51所以就把了学校的老师
03:53其中的把老师请来
03:55那么老师请来的时候
03:56可能又跟受害者
03:57受害者的家长有了一些
03:59谈话
04:01谈话的时候可能又在不够小心谨慎
04:04有一些字眼
04:05就可能不是很恰当的一些字眼
04:07或者是一些句子可能就出来
04:09那么就让受害者们
04:12其中一位受害者还在一起的学生
04:14他就把他的自己的感受
04:16写在了社交媒体上
04:18所以就把整个事件
04:19就开始在社交媒体上发酵
04:21就引起了大家非常非常多的一个关注
04:24所以在这世界上面真的是有很多朋友去关注
04:28当然听到很多不同的声音了
04:30对对对
04:31而且在这件事情上面
04:33它牵扯到的
04:34它也不只是这个行为上的一个正确和不正确的一个角度而已
04:40因为它也牵扯到了我们的日常生活
04:44还有社交媒体使用AI的合成的技术
04:48然后还有我们的所谓的言论自由等等
04:51还有当然校内的这些学生们的安全等等之类的课题
04:56因为它的范围太广
04:58其实在YB的角度里面看这件事情的时候
05:01有没有觉得其实这个其实就是我们社会里面的一个现在的弱点
05:06在于一个AI盛行的环境里面
05:09它变成了一个大家谋亡滚的地方
05:12这其实是我们这个新时代的一种新型的一个挑战
05:17因为AI现在的整个门槛已经变得越来越低
05:21对以前的话可能会觉得说
05:23你要用力肥的话要做AI的生成照的话很难
05:27可是事实上现在这个门槛已经是低到
05:30你几乎去可能学学一下
05:32真的很多人可能也不需要去别人教自己可能学学一下
05:36他就已经会做了
05:37所以就导致说当这个门槛变得越来越低的时候
05:41那么你就等于把一个很有用的一个武器放在每一个人的手上
05:45那么今天每一个人怎么使用这个这么有powerful的武器
05:49就变成了是一个我们需要很棘手去处理的一个问题
05:53那现在很明显的一个问题就是当这个门槛变得这么低
05:57然后我们又把它就念我们的这些未成年者也可以使用到
06:02那当然未成年者对性充满好奇的这个年龄
06:07在学校的这种氛围里面
06:09那么他就很容易去去把这些所谓的AI生成的这个能力用在一些不好的地方
06:16那么就这当然下一个问题当然就是今天其实这整个世界延少到今天
06:21他除了是在讨论这些不正确的使用AI生成的技术
06:27其实到现在其实我觉得这已经去到学校如何去管理和处理类似的问题
06:35所以就变成说其实你看到很后来的很多讨论都已经不再是
06:40我觉得要分两个层面来看
06:42第一个就是你能不能够真的是有效的去抓出这些幕后黑手
06:45他是有一定的难度的这个我必须要承认
06:48另外一点其实已经去到就是学校在收到这种面投诉的时候
06:53甚至是家长当你听到这样的事件的时候你的反应是什么
06:58那么我们才能够更好的去协助这些受害者
07:01特别是未成年人
07:03所以在这方面我们看到这个AI的出现
07:06虽然说在可能某一些方面的带来了很多便利
07:09可是你带来很多的问题
07:10所以很多的国家包括马来西亚也一直在研究
07:13可能说无论是道德上法律上
07:15要怎么去处理这一块呢
07:17稍后来再跟YB聊一聊守着Melody
07:19那现在在Melody的FB上面也有这个现场直播
07:22大家可以打开来看一看任何的相关的疑问
07:24可以在那个FB底下去留言来发问
07:27守着Melody
07:28好 发到我们的FB Live的部分
07:33今天我们来的通信部
07:35福报讲案YB张念群
07:37刚才有提到说像那些受害者去你们的办公室
07:40他们去求助的时候
07:42其实有没有说到其实这一次他们主要的诉求是什么
07:46其实因为这一次是有牵涉到售卖的行为
07:51所以对他们来说
07:52其实来找我们的时候
07:53当然就是希望说这些去售卖
07:56深层他们这些合成造的人能够受到法律的对付
08:00这肯定是有的
08:01这也是他们报警最重要的初衷
08:03毕竟学校如何去处理这样子的一个事件
08:06其实这个东西可能不是警察去管的
08:09就算是有任何的誓言处理不当
08:12可以改过的地方
08:13这可能不是在警方去处理
08:15所以的话他们来报警的时候
08:17他们确实是很希望
08:18就是能够通过警方的揭露和调查
08:21去把一些幕后黑手找出来
08:23那么在这个事件上也
08:25我不懂能不能够使用幸运这个字
08:28就因为你是售卖
08:30售卖的话当然你就会提供你的一个
08:32touch and go的一个账号
08:35因为否则的话你怎么去get the money
08:38所以在这个情况下
08:39你就让警方能够通过这一个
08:42这样的一个就是收钱这样子的一个
08:44transaction
08:45然后去transplant to who is actually behind this
08:49当然我觉得在这个层面上面
08:51很多人一直在关心一个点的就是
08:54其实他会不会这件事情爆了出来之后
08:57他也其实是一个冰山一角的一个例子
09:00然后背后还有很多不敢站出来的人
09:03他受害者
09:04其实还默默的承受着很多类似
09:06这样子的一个经验
09:08其实我跟这几位同学聊天的时候
09:12我就发现而且当然也包括
09:14包括在这个事件开始在网络上发销之后
09:17来自世界各地
09:18不能讲世界各地
09:19全马各地的一些朋友
09:22或者说是年轻人
09:24他们给我的私讯
09:25你就可以发现这真的不只是
09:27发生在古来宽容
09:29古来宽容
09:31真的不只是在那边
09:32我来私讯我的包括吉隆坡的
09:36包括柔佛州其他的学校
09:39包括北马的
09:41其实都有类似的故事
09:44这些是私讯给我的
09:46当然我发现在社交媒体上
09:49小红书上面
09:50其实也有很多人在分享自己的经验
09:53可是当然我觉得现在的讨论点
09:56其实是去到校园如何去整理
09:59所以我觉得这个情况很严重
10:01就在于说像你所说的
10:03他绝对不是凤毛铃角
10:05他绝对不是一个谈话已现的事件
10:07他真的就是冰山一角
10:09只是借着今天这几位勇敢的受害者
10:13他们拒绝沉默
10:14他们站出来举报
10:16那么所以大家把这个事件
10:18能够在我们的社会上
10:20引起很大很广泛的一个讨论
10:22是我相信这几位同学的勇气
10:25然后他们的勇敢发声
10:27会可能带来给可能一些还是在默不作声
10:30然后可能是在还是在隐忍的那种同学们
10:33可能会给他们多一份的力量
10:35他未必像他们这么公开的去
10:38去告诉大家这个事情
10:40可能他们会开始求助了
10:42可能之前连求助都不敢的
10:44现在至少有求助的话
10:45希望说就是至少心理上面的话
10:47有了某方面的一些抒发
10:49接下来的一些
10:50就是后续的一些行动的话
10:51就看他们希望有怎样的一些诉求
10:54所以这方面我们待会在我们的时候
10:56也可以继续的聊一聊
10:57大家有任何的相关问题
10:58可以在我们的FVLive下去留言
11:00走着Melody
11:08刚刚听过来的周周华健的寂寞的演
11:10早上你好
11:11我是Johnson林真琴
11:12早上你好
11:13我是Rossi 陈志浩
11:15今天今天是Melody
11:16一周欧应的特别
11:17我们请你来宰摩拉山
11:18通神保护保障
11:19外批张念群
11:20外批早安
11:21早安
11:22我们继续来看一看这个事件上面
11:24因为刚才有提到说
11:25关于这个AI的科技
11:26真的是门槛越来越低了
11:28大家就可以access到
11:29也可以用来做好的也不好的事情
11:32那可是在这方面
11:33在马来西亚而已
11:34马来西亚的法律也好
11:36整个框架也好
11:37目前来讲
11:38你觉得是足以去应付这样子的一些科技犯罪类
11:42犯罪类的事件吗
11:44我觉得法律本身是有的
11:47就比如说今天
11:49其实你不见得一定需要有新的法律
11:52不管是在任何时候
11:54你要如果去散播色情照片
11:57那确实就已经是犯法
11:59那你讲说色情照片底下的
12:01如果主体是所谓的孩童
12:04那其实法律也是有的
12:05我们做的
12:06其实最近我们在做的
12:07就是本来我们就已经有sexual crime against child
12:10所以这本身其实就已经有去谈到
12:13你如果去散播去储存去下载
12:16去拥有在你的手机里面
12:18在你的任何储存设备里面
12:20如果你拥有任何牵涉到未成年者的色情内容
12:24其实sexual crime against children底下
12:26就已经有相对的法律条文来去针对不同的情况
12:31你是售卖的
12:32你是散播的
12:33还是你是储存的
12:34他都有所谓相对的这些刑法
12:36甚至是包括说如果涉及的人
12:40是所谓的
12:42in a relationship of trust
12:44也就是说如果你的
12:46就是这个黑手
12:47你这个造案者
12:48加害者
12:49加害者
12:50你其实跟这一个被害者之间
12:52有一个特殊的trust
12:54in relationship in trust
12:55例如你是家长
12:56例如你是他的教练
12:58例如你是跟他有任何的所谓的这种所谓的
13:01你是他的保姆之类的
13:03那他也有更重的刑法
13:05甚至是有讲说如果你没有去主动的去
13:07就是去把这方面的
13:09就是你知道这个事件发生
13:11可是你没有主动的去跟警方去举报
13:14那么其实也有所谓相应的法令在底下
13:17那对我们来说法令本身是存在
13:20那么通讯部做的是什么
13:21通讯部之前在去年的时候
13:23我们也修改了我们的多媒体和通讯法令
13:25目的其实是在加强这方面的刑法
13:28就是我们把这个Panity提高
13:31就是希望能够给我们的社会
13:33给所有的普罗大众一个警惕的心理
13:36因为我们预见的一点是
13:38这类型的犯罪一定会增加
13:40所以就是现在你通过我们的这些手机
13:43通过网络设备
13:44你去share
13:45你去download
13:46你去散播
13:47你去生成
13:48这些一定变得非常非常的普遍
13:50甚至当我们的
13:52当我们去MMAN去修改我们的通讯
13:54很多媒体法令的时候
13:55我们其中一个条文就确实去讲
13:58如果你是一般的散播
14:00那么你是罚款50万
14:02坐牢两年
14:03如果你内容本身牵涉到的是孩童
14:07那么你的刑法会增加
14:08你会罚款50万
14:10那么或者说是坐牢不超过5年
14:12或者是两者件事
14:13那么如果你是去售卖
14:15那么你可以被罚款不超过100万
14:18那么你坐牢可以不超过5年
14:20或者是两者件事
14:21所以这个是在我们去年修改
14:23通讯和多媒体法令之后
14:25我们把这个刑法提高
14:26那么你看
14:27现在这几个条文
14:28其实就完全适用于今天我们讨论的这个个案
14:32可是
14:33我们现在面对的问题是什么
14:36是矩阵
14:37
14:38像我们刚刚讲的
14:39其实这个个案里面
14:41我用了一个字
14:42可能大家不明白
14:43为什么我讲是幸运
14:44是因为有这个commercial transaction
14:47他让警方能够去调查
14:49可是如果今天这个就是这个transaction
14:52是用比特币
14:54
14:55那么大家都知道比特币的特性是什么
14:58就是你其实是很难去trace的
15:00那么如果他只是纯粹的散播
15:02而且他不是用自己的所谓的实名的账号去
15:06他是create fake account
15:08
15:09那么在这个情况下
15:10那么整个所谓的找出幕后黑手
15:13还会这么容易吗
15:15
15:16所以对警方来讲
15:17对MCMC来讲
15:18或者说作为一个执法者来讲
15:21法律的条文是已经很清楚的标明
15:23OK
15:24你这个是犯罪的行为
15:26可是我觉得真正的难度
15:28它永远是会是在在于说
15:29你能不能够很有效的去把这个幕后黑手找出来
15:34因为很多的资讯人家会讲说
15:36哎呀你不能够去查他的IP address
15:38大家一定会讲这句话的
15:40你查他的IP address
15:41可是你要明白
15:42他的IP的资讯并不是
15:44是在平台本身去拥有的
15:47也就是说如果你今天这个东西是发生在Facebook
15:50那么Facebook才有这个IP
15:52那么你需要得到Facebook的配合
15:54你才能够得到好的IP
15:56你要知道这个账号本身注册是怎么注册的
15:59还是用email注册还是用电话号码注册
16:01那么这些资料谁会有
16:04Meta才会有
16:05面子书才会有
16:06那么如果你也需要去跟Meta
16:08跟面子书去锁起他们给你
16:10你才可能从这方面
16:12再去进一步的去展开调查
16:14可是你也是可以只通过email
16:17来去注册账号
16:18而且真正在IP address后面的使用者
16:21也未必是register的那个人
16:23Exactly
16:24所以这就是其实是会让所有的调查工作
16:27变得很难
16:28所以刚刚我才会讲说
16:29用了开关以后的一个信任
16:32of course we don't want this type of things to happen
16:34可是我必须很坦白的跟大家讲说
16:36调查工作
16:37他也会面对他一定的难度和挑战
16:41其实我个人是觉得这件事情上面
16:44我们等一下可以探讨的另外一件事情
16:46就是青少年们现在对所谓的
16:48这件事情上面的边界感
16:50因为他可能觉得这个真的是一个很普通的prank
16:54我其实在做这些事情的时候
16:56我们讲deepfake
16:57deepfake你已经知道是fake了的吗
16:59为什么你这样介意
17:00所以我们等一下回来的时候
17:01我们好好来探讨这个问题
17:03是的
17:04那现在我们在melody的辩子书上面
17:05也有FB Lab
17:06大家可以打开来看看
17:07有任何的疑问的话
17:08也可以去那边留言
17:09可以去那边留言
17:10守着melody
17:14好回到我们FB Lab的这一个部分
17:17再次跟大家说声早安
17:18我们今天请来的外宾张念群
17:20跟我们聊聊关于近期的这个
17:22下面里面有这个AI合成不雅照
17:24去兜售牟利的事件
17:27刚才我们聊了很多关于这个
17:29什么去监管
17:31然后一些法律上面
17:32其实刚才说到很多的一些法律的条文
17:35都已经是阐明了
17:36也其实涵盖了很多很多部分
17:38可是因为现在它这个就是一个很新的东西
17:41很多国家其实都还在看着
17:42有没有说灰色地带
17:44要去把它也涵盖掉等等的
17:46这一方面我相信
17:48公民们的政府也在做着很多的这个努力
17:51可是会不会有比较
17:53怕追不上那个科技
17:55它越来越快的这样子的一个速度
17:58我觉得其实现在的讨论应该是要去谈
18:01今天我们对社交媒体的期许是什么
18:06因为像我们刚刚讲的
18:08大家以前谈到实名制
18:10你一定是会很反感的
18:11对吧
18:12大家讲到如果说社交媒体上面去落实实名制
18:14大家一定都会很反感
18:15这个一定是政府要来抓我们的
18:17政府要来管我们的言论自由
18:19政府要去做那个大哥大
18:21来去supervise我们
18:22来去monitor我们
18:23可是今天我们看到的一个问题是
18:25今天真的你是能够通过社交媒体
18:28这个平台来去犯罪的时候
18:32就是那个门槛已经是低到说
18:34连小学生12岁他都懂得怎么去用这种照片
18:38来去声称这种所谓的不亚照的时候
18:40那么如果你的社交媒体
18:43你没有去实名制的话
18:45那么其实他的问题就会是
18:47你很多的犯罪行为讲真的
18:50不是警方不要抓人
18:51而是你没有这方面的资讯
18:53你真的是没有办法去抓他
18:55trace不到
18:56trace不到
18:57所以这时候我觉得是时候
18:59我们已经进入了另外一个时空
19:01我觉得过往
19:03因为我们是在没有社交媒体平台
19:05所以大家发声的管道都很少
19:07所以当时我们面对的挑战是
19:09所谓的言论自由的空间被极度的压缩
19:12人民表达自己意见的权利被极度的压缩
19:15因为你就只有这几家报纸
19:17你就只有这几个电视台
19:18你就只有这几个电台
19:20然后这些所有都是需要来生的
19:22所以在那种情况下
19:24当然政府是很容易管控的
19:26可是来到今天
19:27我觉得是一个相反的挑战了
19:29就是当我们已经拥有很大的自由的时候
19:32那么如何善用这些自由
19:35确保说我们是有责任感的去使用这些自由
19:38我觉得是现在我们需要进入讨论的下一个阶段
19:41如果我们只是在意味的讲说
19:43这个是自由
19:44这个是自由
19:45言论自由
19:46我有发表自己意见的权利
19:47那么我觉得那会是很危险的
19:49那会是很危险的
19:51到最后我们还是要想一个办法
19:53去杜绝类似的事件的发生
19:55如果我们只是放任不管的话
19:57大家是自由发展的话
19:59他如果类似的事件再次出现的时候
20:02那这个责任应该是谁去负
20:04是所以我其实有些时候
20:05谈这个课题的时候我也是很
20:06有些有一点左右为难
20:08就是我要不要跟大家讲到很详细
20:10为什么有的人抓得到有的人抓不到
20:12因为我讲的越详细的时候
20:14大家就对一些要做坏事的人
20:16of course
20:17maybe不会听我这个
20:18他也要知道这种东西
20:19他可能也会去其他地方收到这个
20:21可是我很坦白跟你讲
20:23你今天如果是居心有益的去做一个假耳口
20:26甚至今天你要用VPN
20:28你也不用猜客
20:29你也知道这样用VPN
20:31其实很多的所谓的
20:33所谓的这种我们讲说
20:34internet security的这些app之类的
20:36他其实就已经自动帮你再做VPN了
20:39对不对
20:40那么大家要知道就是
20:42如果你是使用VPN的
20:43那我要trace你
20:44它的难度就是加倍
20:46那就是反备
20:47所以在这种情况下
20:49we need to seriously discuss about it
20:51就是你如果要去
20:53我们讲说现在一大堆scam的account
20:55为什么这样难抓后面的人
20:57他确实是很难抓
20:58因为这些假账号
20:59你怎么去trace他的identity
21:01是谁呢
21:02
21:03那就是在今天
21:04当我们的自由已经是变得说
21:06我觉得
21:07这个时候已经不是政府要来管理自由
21:09就这么容易的一个年代的时候
21:11如何去能够确保说
21:13自由被有责任感的去
21:15就是有能够去被善用
21:17然后每个使用者能够是更有责任感的
21:19而且要知道说他们需要被自己的言情
21:22对自己的言情去负责的
21:24我觉得这很重要
21:25因为现在的问题就是
21:26在正常生活中日常生活中
21:28我不会这么做
21:29
21:30可是上到上网的时候
21:31我就百无经济了
21:32真的真的是完全变成另外一个人
21:34觉得可以就是躲在
21:36躲在这个account的后面的话
21:38我说什么没有什么关系
21:39可是当你面对面面对这个人的时候
21:41你未必会这样子说话的
21:42所以这个就是一个人性上面的
21:44一个很奇怪的地方
21:45所以刚才有说到就是善用这个字
21:47也就是说的人
21:48他有责任的去善用他
21:50因为现在是因为太自由了
21:51变成很多人就是滥用
21:53而且他不觉得是滥用
21:55他觉得没有了我就正常用
21:56因为他也是这样子讲
21:57他也是这样子讲
21:58他都没事
21:59所以这一方面呢
22:00真的是需要值得我们去深入的去探讨
22:03怎么的去成为一个有责任的
22:05除了说一个有责任的公民之外
22:07是网络公民了
22:08
22:09你不能把这两个identity
22:11给他切得这么容易
22:12因为刚才我们也其实也一直在讲
22:14那个问题就是所谓的边界感这件事情
22:16什么是对的
22:17什么是错的
22:18然后很多时候
22:19如果你是没有这个醒觉的话
22:22你就一直觉得
22:23这个就是我可以做的事情
22:25网络就是大家可以自由发生的地方
22:27所以边界感这件事情
22:29我觉得又是一个很大的课题
22:31而且对于这一次我们讲的这件事情的主角来说
22:36加害者
22:37他们只不过是青少年
22:40
22:41他们的那个角度是更是一个新时代的想法
22:45就是我要发表我自己
22:47我要找我自己identity
22:49所以这个东西就是任我来发挥
22:52这个东西我觉得会是难上更加难
22:56没错
22:57那个所谓的放飞
22:58有时候你说我要做自己做自己
23:00你不能阻挡我等等的
23:02可是这个做自己也是要有一个界限吧
23:05不能无认的
23:06对别人造成不变
23:08或者让大家觉得
23:09让其他的人觉得难堪
23:10那个东西我觉得很重要
23:12对某个程度上
23:13我就觉得这个就会是
23:15我政府也好
23:17家长也好
23:18学校也好
23:19下一个更大的挑战了
23:20因为我们以前的年代
23:22我们讲一下我们以前的那个年代的时候
23:24我们就被教育出来的时候
23:25有一些事情
23:26你是千万不能做
23:27可是现在的那种感觉就是
23:29他们一直在摸索
23:31internet
23:32还是你说网络网络
23:33还是AI
23:34带给他们的便利
23:35这个界限开始被模糊的时候
23:38是所以我觉得这是一个我们
23:40作为家长
23:41作为大人
23:42当然学校也需要讨论
23:44可是我不希望把所有的责任都推去给学校
23:46当然学校是有所谓他们的时间
23:48也应该去教育我们的下一代
23:50可是家长也必须承担起这个责任
23:52就是今天我们多少人是让我们的手机
23:55来去做小孩的保姆
23:56你明白我的意思吗
23:58就是手机平板
23:59对对对对对
24:01你要去一个去层间喷
24:02我也明白
24:03因为我自己也是三个小孩的
24:05我的意思就是你去到一间餐馆的话
24:07有多少大人就是让小孩子在那边
24:09看着YouTube之类的
24:10
24:11但看YouTube这些content
24:12我不觉得
24:13我不觉得是一个
24:14就本质上是绝对大错特错的事情
24:17可是我觉得作为父母的我们
24:19当我们开始决定
24:20开始决定说
24:21例如给我们的小孩子手机的时候
24:23很重要
24:24因为我小孩子上中学的时候
24:26我也开始让他带手机
24:28方便联络
24:29可是你也必须告诉他正确的知识
24:32例如他怎么去保护好自己
24:34例如说当他发生这种事情的时候
24:36他可以怎么处理
24:37例如我们也很清楚的告诉我们自己的小朋友
24:40什么事情是绝对绝对不可以去做的
24:43因为这个是大错特错的
24:45根据他们的年龄调整我们谈话的方向
24:48跟角度和跟他们谈话的方式
24:51我觉得这方面也是作为现在的父母
24:53我们一定要去谈的
24:54这可能不是我们那个年代
24:56我们会经历的教育
24:57
24:58可是今天如果我们不主动去了解这一块的话
25:00我们就等着让社会来教我们的孩子
25:03而且是犯错了之后
25:05那个后果很严重的时候
25:06你才来学乖
25:07
25:08而且现在可能我们这一不同的年代
25:10就早一点的年代的话
25:11我们是需要花更多的心力去学习跟了解
25:14因为他们是一出事
25:16就是在social media的年代
25:17
25:18就在科技的年代
25:19所以他们我们把他们这一代叫做
25:21digital native
25:22
25:23他们就是
25:24就对他们来讲
25:25他们很
25:26他们对
25:27就几位臭壞者来讲
25:28他们其实不能够接受的一句话
25:29就表示
25:30你不要把你照片放在社交媒体就没事
25:32
25:33他肯定不能够接受的
25:34因为我们可能是那一种
25:36生活在一
25:38我们曾经成长的年代是没有社交媒体
25:40我们可以没有社交媒体
25:42所以可能对我们来说
25:43没有社交媒体
25:44其实并不是一件不可想象的事情
25:46嗯嗯嗯嗯
25:47可是对这个generation来讲
25:48他们就是digital native
25:49
25:50对他们来讲
25:51这就是他们
25:52等来就开始在进行的一件事情
25:54你怎么可以叫他不要去做
25:55
25:56他原本就说
25:57这个就是我的权力范围里面
25:58我就可以做的事情
25:59每个人都有
26:00大家都可以做的事情
26:01这个不是我的错啊
26:03OK
26:04所以这方面呢
26:05我们待会儿在online的时候继续聊
26:06任何的相关疑问可以继续留言
26:07是melody
26:13刚刚听过呢
26:14就有许智安和叶德贤的美中不足
26:16早上你好
26:17我是Johnson 林振潜
26:18早上你好
26:19我是Raisy 陈志康
26:20今天我们在一周All-in
26:22这个单元里面
26:23我们有一个特别的
26:24就是请了委别张念荃来到现场
26:27和我们讲一下
26:28关于中学生网售AI合成不雅照事件的
26:31外边刚刚我们也讲到这个课题
26:34就是所谓的现在青少年们
26:36对于该做和不该做的事情的边界感
26:39其实是很模糊
26:40因为你说AI它是大行其道
26:43一个趋势来到的时候
26:45大家都可以使用
26:47因为门槛太低了
26:48所以这个时候
26:49我在突发起想到另外一个问题是
26:52是不是学校里面应该要有一个正规的课程
26:57其实去教这些所谓的道德规范
27:00就是使用科技的道德规范这件事情
27:04我觉得肯定要去教
27:07而且不只是学校教
27:09作为家长的
27:10我觉得我们也必须一起去共同承担这个责任
27:13那么可能
27:14而且我相信的一个问题是
27:16这些东西就好像我们跟你讲开车要小心
27:19你明白我的意思吗
27:23开车要小心需要跟你讲
27:25对吗
27:26你是在拿自己的生命开玩笑吗
27:28开车要小心
27:30喝酒后不要开车
27:32累的话要停下来
27:33太累的话不要开车
27:35车子要定期进行保养
27:37这些东西by right讲真的
27:39不需要特地去讲了的
27:41为什么佳节期间
27:42我们这方面的交通安全的广告
27:45又会开始PSA又开始拼命的出来了
27:48为什么
27:49因为大家会听到我已经耳朵伸箭了
27:53所以我都不把他当成一回事
27:55所以我觉得这可能也是一个
27:57一个我们没有把他当成这个事件
28:00我希望我们能够从中一起学习的就是
28:02利用这个事件
28:04去正式的让我们身边的人
28:07包括未成年者和甚至是成年者
28:09去了解到事件的严重性
28:12这不只是平时跟你讲话的时候跟你讲一个
28:14哎要去尊重别人的私隐啊
28:16不要去做这种生成造不亚造啊
28:18这是很不对的很不尊重人的
28:20让他们真的感受到这个事件
28:22可以有多严重
28:24如果你是其中一个黑手
28:26你将面对的制裁能够多严重
28:29我觉得可能是我们可以接受这个机会
28:32来去让大家有这方面的警醒的
28:35因为他可能就真的是变成大家很
28:38义以为常的一部分
28:40因为就真的是
28:42因为跟他们聊天的时候我就发现
28:44其实现在这些他们的他们会觉得不舒服的这些
28:47他们同班同学或者学校的男生去做的一些举动
28:50可能就包括帮女生做排行榜
28:53
28:54就物化女性
28:56你看这种声音是代表什么
28:57这可能是我们中学的时候我们也经历的
29:00只是当时可能没有社交媒体
29:02我们可能大概知道
29:04at least我知道说我班上的同学也曾经做过这样的东西
29:07他们也很很就是会很神神秘秘鬼鬼祟祟祟
29:12所以也不会让我们知道的太多
29:14可是at least表示说他们也知道这东西是不对的
29:17所以他们也虽然说有这种好奇有这种玩乐的心理去做了这种排行榜之类的
29:23可是他们会很好的去处理他
29:27不能够讲很好的处理他
29:29他会尽量低调
29:30他也不会说透露太多给我们这些同班的女生之类的
29:34可是现在因为有社交媒体
29:36这东西就可能会变成是一发不可收拾
29:39因为我一定会说share出去的
29:41一定会share出去
29:42所以这就会所以你发现吗
29:45其实这些年代中学的这些青少年
29:49因为薪资不够成熟
29:51因为也可能是因为进入了发育期
29:53所以对这种性的好奇
29:55对异性的好奇
29:56这真的是我们需要去正确疏导的
29:59而且你所得到这些资讯或者是你疏导的方式
30:03你的管道是什么呢
30:04这个又很失控
30:06因为太多太多太多选择了
30:08所以像这样的事件爆发的话
30:10当然是一个不幸
30:11可是我们面对现实
30:12它的确是活生生在发生着的
30:14所以可能也要趁着这个机会
30:16大家多一点去了解
30:17多一点去学习
30:18甚至可以跟青少年
30:19或者是大家都可以多一点的对话
30:21像今天的对话就很棒
30:22可以让大家知道更多这方面的一些资讯
30:25所以稍微来我们继续来聊这个事件
30:27因为我们像这次的标点我放了
30:28这个事件上面我们还能够做什么
30:31到底还能够做什么呢
30:32稍微来继续聊
30:33守着Melody
30:34然后回到我们FB Lab的这个部分
30:40我们继续来聊这一次的这个事情
30:42我们有YB张念群在现场的
30:44因为刚刚我们其实在聊到
30:45可能就是有排行榜
30:47女生的排行榜
30:48其实也有男生的排行榜
30:50也一样有的
30:51可是就感觉上这个不是性别上面的关系
30:55而是你的这个行为和思想上面出现了这个问题
30:59
31:00所以这方面我们
31:01像刚才说到的
31:02现在我们可以跟大家多一点的对话
31:06因为像刚才说
31:07学校也好
31:08大人家里的家长等等也好
31:11是要趁着这个机会
31:12可能跟他们多聊
31:13要让他们了解更多
31:15就是真的是
31:16除了说事态严重
31:17事态严重
31:18事态有多严重
31:19当中对于人家的伤害是什么
31:21有些是没有预示到
31:22有什么伤害我
31:23就是一个照片
31:24他可能想说你放一个照片
31:25你放我的照片
31:26我不会觉得
31:27而且是假的
31:28可是问题是
31:29要让他们解释更多
31:31这个也是一个很好的机会
31:32跟他们对话
31:33是 所以坦白说了
31:34我就处理这个K之后
31:36我就回去跟我小孩子谈
31:39我就把这个事情跟我说他们
31:41然后就开始跟他们展开这个对话
31:43所以我觉得我也希望说
31:45今天我们对这个事件的讨论
31:47他不只是在社交媒体上
31:49以一种八卦的心情去跟进
31:51我觉得更重要的是
31:52我们都要把他带回家
31:54然后去开始跟我们身边
31:56可能需要进行这方面讨论的
31:58未成年者小朋友去谈
32:01我自己三个小孩
32:029岁11岁13岁
32:0413岁的是女生
32:069岁11岁的是男生
32:07所以我回去就开始跟他们谈
32:09我就开始跟我女儿谈
32:11就是说这个事件发生了
32:13就是有这些所谓的女同学
32:17把他们的照片放去社交媒体
32:19然后就男同学把他的照片
32:22改成是这种不雅的照片
32:24我女儿就直接应我一句
32:26我都没有把我的照片放社交媒体
32:29还是这种口气
32:32你明白吗
32:33他就不去跟我讨论
32:34可是其实我要告诉他的是
32:35我不是跟他讲说
32:36你不可以把照片放进社交媒体
32:38因为我觉得这管制不了
32:40他到了一个年龄
32:42他可能想放的时候
32:43我觉得重点是去也让他去放
32:46可是是要告诉他就是
32:47我要告诉你的东西是
32:48如果你发生这种事情
32:50你记得拿来跟爸爸妈妈讲
32:52你不要自己在那边把他收起来
32:54自己在那边怕什么
32:55其实我要跟他讨论的重点是这个
32:57可是他就一句话就来直接要
33:00打发你
33:01所以可是OK
33:02我要就是青少年的态度
33:04跟attitude
33:05我们在家里被孩子歧视
33:07可是
33:09I will still continue the discussion
33:10因为我觉得在这里
33:12我想要告诉他东西
33:13其实并不是说
33:14不要放照片在社交媒体
33:15因为我自己都放
33:16我这样叫我女儿不要放
33:17It's impossible
33:19我是想跟他说就是
33:20如果你发生这种事情的话
33:21不要怕
33:22不要紧张
33:23不要羞愧
33:24不要因此而去做更多
33:27就是被他威胁
33:28要挟之类的
33:29你把这件事情一定会发生
33:31如果你遇到这种事情的话
33:32你记得要来跟大人讲
33:34你要跟大人去求助
33:36我跟我9岁11岁的男生
33:37我就跟他们讲说
33:38你看就有男生去做这种事情
33:40所以现在被停学了
33:43现在被警察拉去了
33:45就因为9岁的11岁的
33:47可能我觉得还小一些
33:48所以我其实是想要这个事件
33:50让他们知道说
33:51这些事情可以很严重
33:53我要告诉他们说
33:55你不要
33:56千万不可以
33:57有一天你学会做这些
33:58AI照片的时候
33:59你不要去把它滥用
34:01甚至也要跟他讲说
34:03就是因为这个事情
34:04发生在你身上的时候
34:05你也一定会觉得很羞耻
34:06你一定也会觉得很难受
34:08所以我觉得
34:09let us make use of this opportunity
34:12趁着这个事情有热度
34:13他们可能也会在自己
34:14小朋友也会在自己的社交媒体上看到
34:16或者是家里有买报纸的
34:18给小朋友看
34:19然后来跟他们一起进行讨论
34:21我觉得这个才是更有意义的方式
34:23否则的话
34:24我觉得如果只是一种猎奇的方式
34:28那么我觉得可能我们还能够
34:30可能我们还能够在这个事件里面学得更多
34:32是也不能以一个单一事件
34:34就是这个事件
34:35如果是得了
34:36有一个结论的
34:37就给他过
34:38他不能过的
34:39这个是我们要在这个事件当中
34:41他发生了他不幸
34:42可是我们从中有学习到的话
34:43这个更为珍贵
34:45同一个时间其实
34:46刚刚其实有讲到
34:47作为父母的这个角色很重要
34:50我可是我们常常都会遇到一个问题
34:53就是父母亲大家都讲
34:54我都不知道怎么会交通
34:56我真的也不知道怎么跟他们讲这种事情
34:59因为未必每一个爸爸妈妈都跟孩子
35:01有一个非常良好的沟通的方式
35:04你说就我们不需要去讲到
35:07AI合成照这件事情
35:09你说平时的所谓的一般的性教育就好了
35:13我都难以及耻了
35:14所以某个程度上在这件事情上面
35:17是不是也提供了我们的父母亲
35:19一个反省反省和反思的机会
35:22其实我跟那些受害者聊天的时候
35:25因为其实坦白说
35:27他们都很坚强
35:30我其实也一直问他们说
35:31你们确定要开记者会吗
35:33因为记者会会很多人
35:35你确定吗
35:36因为这个事件
35:37热度已经去到那个level的时候
35:39一定会有很多记者要来
35:41所以他们其实都很坚定
35:42而且我跟他们谈话的时候
35:43我就发现了一点
35:44其实他们难受和他们难过的时候
35:48彼此都不是在看到这个照片的时候
35:51他们可能真的是有一件那种习以为常的
35:54那种心态的
35:56可是他们真正难受的时候
35:58是可能父母不小心讲错话的时候
36:02例如父母不相信这是合成照
36:05而且生气
36:07怎么你去拍这种照片
36:08这个是合成照
36:09这个不是真的
36:10可是父母可能一开始没有相信的时候
36:13对他们造成的伤害
36:15以及就是那种言论就是
36:17学校你帮你的照片放弃社交媒体
36:19这种言论是才真的是让他们难受崩溃
36:23开始觉得受伤的时候
36:25所以我在跟他们谈这些东西的时候
36:27我其实也告诉他们
36:28你们是digital lady
36:29可是你们的父母是digital immigrant
36:33migrant
36:35甚至是更年长一点的
36:37甚至是所谓的digital alien
36:40so大家也要去明白
36:42这方面的代沟
36:44这就是代沟
36:45就是今天的这个代沟
36:46就发生在这个整个数码的世界里面
36:48做家长的我对他大家的advise永远都是
36:51你如果今天你不主动的去教育你的小孩
36:55你不主动的去跟他们沟通
36:57你不主动的去学习这方面的
36:59跟他们沟通的技巧
37:01去了解这个数码时代底下
37:03可能的这些犯罪的问题
37:05那你就真的等着是有一天
37:07让社会来教你的小孩
37:08对而且
37:09定教育很难启齿是的
37:11可是你不去教
37:12你觉得你让YouTube去教他就是更好的事情吗
37:15我们要有这种觉悟我觉得
37:17没有因为一般很多的家长
37:20大家就觉得信教育是老师教的
37:23其实当然老师也应该教
37:26可是我也可以用我教育部的意见
37:28今天跟大家分享
37:29教育部的老师是大概有
37:32我们学生大概
37:33我教育部的老师小学的
37:35中学小学大概是40万人
37:3840万人里面你也不能够是把40万的老师都当成是
37:42他是昨天才从所谓的私讯学院毕业或者是年轻的老师
37:47为什么我这么讲
37:48因为对年轻的老师来讲
37:50可能他会对性教育相对来讲
37:52有更正确更open的一个观念
37:55可是你想想如果那个老师是教了25年书
37:58那老师一直都是在比较江区的地方
38:03保守一点的地方
38:04保守一点的地方
38:05那你觉得对他来讲
38:07教性教育就是一件容易的事情吗
38:09这个当然是教育部在如何去很好的培训老师的时候
38:14我们要做的更好的地方
38:16要去确保说所有的老师尽量来去确保说
38:19大家对这个性教育都有正确的观念
38:23可是确实也是会有老师来跟你讲说
38:25他觉得很难开口
38:27老师也是人
38:29老师也是人
38:30如果他就是一个今年已经可能是50岁的老师
38:34那么可能你要他去跟你跟小朋友来去讲性教育
38:39对他来讲在那个年代
38:40他可能也觉得是很难启齿的一件事情
38:43所以老师也是人
38:44学校应该教
38:45不表示家长就不应该去尽做这方面的责任
38:48这我觉得很重要
38:49是啦
38:50而且这个沟通
38:51虽然说可能刚才想说
38:52可是爸爸妈妈都不懂怎么去跟孩子相处
38:55可是他不能永远是这样子
38:57又像这个事情爆发了之后
38:58可能就现在开始了
39:00你要去慢慢的去挽回来
39:03还是去开始去用你比较他们接受得到
39:06小朋友接受得到的一个方式去跟他们沟通
39:08Along the same line
39:09就是一句很狠的话
39:11你不会
39:12这不是代表你不做的原因
39:15你可以不做
39:16因为你不会你就可以不做
39:17就是一个learning curve来的
39:19
39:20对啊
39:21这个事情就是你
39:22或者你就要把它当成
39:23这是你作为家长的责任
39:25如果你不把它当成是你
39:26就是我们会觉得做家长的责任
39:28就是给小孩子吃
39:29给小孩子住
39:30送他去学校
39:31你觉得这个是你的责任
39:32没有错
39:33这也是家长应尽的责任
39:34可是教小孩子
39:35那不是我们的责任
39:36所以你不会你还是要学
39:39你怎么样都要学到会为止
39:41
39:42我这么这么老了我还要学
39:43可是真的是需要开始要去学这个东西
39:46像刚才有说到有一些家长是
39:48有一点victim blaming的情况
39:50就是责备那种受害者的
39:52这种会让他们更受伤
39:54他觉得你不了解我就算了
39:56你还要责备我
39:57让我成为这个世界上面觉得说是我的错
40:00就是这样子我相信他们受伤的点
40:02刚才说到吗
40:03然后更难过的是这一块
40:04是其实我觉得
40:05或者我们可能要接受一个情况就是
40:08OK fine
40:09不见得每一次你的人能够抓到这个幕后黑手
40:12所以更重要的问题是
40:13你如何让受害者能够摆脱这个阴影
40:17而这个时候
40:18大人给他们的鼓励支持和肯定
40:21就是能够让他们从这个阴影走出来
40:24最关键的一点
40:25你可以看到的就是说
40:27有的人可能会被这样子的incident就团生了阴影
40:31有从一些网友的分享你也看到
40:33他可能就被这个事件困扰了几年
40:35几年啊各位
40:37你想想那个是多么恐怖的一个
40:40你需要carry这个阴影几年
40:42可是如果我们能够以正确的态度去辅导他们
40:45去辅助他们
40:46那么可能我们就可以更好的去协助他们
40:50和带领他们走出这个阴影
40:51让他们知道说这个事件
40:53我们会尽我们所能的去追究黑手
40:56谁是这个犯错的人
40:58那么也一定会尽大家所能来去帮他们
41:01伸张正义
41:02可是与此同时
41:03也不要去对自己的所谓有那种心理的阴影
41:07然后让自己觉得我就是是我的错之类的
41:10能够让他们更积极的来去面对大众
41:13不会有那种羞耻感
41:14我觉得这很重要
41:15好我们再聊哈
41:16首先Melody
41:21好了
41:22听过李子汉的飞之后
41:23来继续今天的Melody一周
41:25特别来我们有
41:26我们马来西亚通信部副部长
41:27YB张念荃
41:28YB你好
41:29大家早上好
41:30好我们刚才其实在
41:32在Melody的FB Live上面
41:34我们一直聊好多了
41:36真的如火如荼的在讨论各个角色
41:39就是因为在这件事情上面
41:41其实我觉得他不是要找出一个负责的单位
41:47而是大家都有各自需要扮演的角色
41:50我们刚刚其实讨论到家长的这一块的时候
41:54我们突然间又会好像开始感受到家长们
41:58其实他们也经历着很大的挑战
42:01因为他说可能在这件事情上面
42:03你跟你的孩子的沟通这件事情
42:05你必须要反省到底是不是足够
42:08到底是不是到位
42:09而且你也不能说
42:11因为我不会讲这种
42:14AI什么什么东西这样子的时候
42:16你就不跟你的孩子去讨论这件事情
42:19因为他本来就是一个learning curve
42:21你不会也要学会
42:22所以这是家长上面的一个挑战
42:26所以在最后我们请YB来跟我们说说
42:28这个事件到了这样子的一个地步
42:31然后经过了这么多
42:33可能又跟受害者接触过等等的
42:35有没有什么大家可以做的
42:38应该有说到一个很好的
42:39就是我们怎么去帮助受害者
42:41他们把他的阴影和伤害减到最低
42:44是的 我觉得
42:46我觉得我们一定要给大家有一个正确的态度
42:49就从这个世界里面
42:50我觉得现在受害者当然希望警方能够尽快的完成调查工作
42:55把应该提提提提控的人
42:58提控的人带到法庭
42:59这个是一方面
43:00另外一个方面的讨论
43:01其实已经是去到如何去确保说校园能够有一个更正确
43:05更严谨的SOP来去处理相似的事件
43:09就是希望说然后也希望说能够去让大家对这类的事件能够更敏感化
43:15千万不要说去在所谓的在受害者有罪这方面去做任何的引导
43:21我觉得这个东西都是我们在自己潜持用志的时候
43:24每个大人或者说我们每一个网络使用者也好
43:28或者说我们每一个人其实都应该要去学会的
43:31那么另外一个我觉得很重要的一点也就是既然我们认同或者说是也知道
43:37不是每一次你都能够很顺利的遭到这个魅惑黑手
43:41所以在这种情况下如何去确保说受害者能够尽量的走出阴影
43:46我觉得很重要
43:47而要让受害者走出阴影的很重要的一点我觉得
43:51就是我们如何去引导他们去正确的去知道自己并没有错
43:57所以在这个时候的话每一个大人和他们身边的人的支持的鼓励
44:04跟他们的陪伴我觉得就变得非常非常的重要
44:08很多时候你是要去empower他们
44:10让他们觉得说他们没有错
44:13他们可以勇敢的站出来
44:14他们可以去勇敢的举报
44:16他们不应该被这种照片有带来任何的阴影
44:19这个是很重要的一个感受
44:21所以如果说他能够从你身上得到这份肯定的时候
44:25我觉得他们就能够很没有阴影的很自信的站出来
44:31去做他们想要去做的事
44:32包括说要去报警也好
44:34或者说OK
44:35这就是无聊的人做的一些无聊的事情
44:38他不会被他影响到
44:40我觉得这个很重要
44:41而这个empowerment他就必须是来自大家
44:44如何一起去思考
44:46我们去empower他
44:47去鼓励他
44:48去让他明白到这件事他们并没有错
44:51我们刚才讲到其实这个可能真的是冰山一角的一些发生的事情
44:56可是同一个时间如果受害者们更踊跃
44:59然后更勇敢的站出来的时候
45:01他其实也提供了另外一个反向的一个肯定
45:05就是让造势者还是你说加害者们知道
45:08他们这些人他们是不会静静的
45:11已经不会再是像以前他们可以这样子欺负他们霸凌他们
45:15然后他们可以一而不正看就可以
45:18对吧
45:19其实对于所谓的这些霸凌者加害者来说
45:22他们其实他那个愉悦感的满足感从哪里来
45:25就是你不出声然后畏惧的
45:28
45:29他就是来自于你的你的痛苦
45:31如果你今天给他的那个attitude是
45:33我没有痛苦我会继续不断的expose你
45:36那么我觉得对加害者来讲
45:39他就没有办法从你的痛苦上得到他的愉悦感
45:43嗯他的愉悦感是那么这我觉得也是希望说
45:46能够让大家导回正向如何去更正确的去使用我们的科技
45:51是的用正向的力量用这种勇气呢
45:53去对抗所谓这种黑暗的势力
45:56让他们知道说哎你不能为所欲为的
45:58我们是有很多人站在我们的身后
46:01我自己本身也是有充满着力量的
46:03那今天的这个话题呢
46:04其实还有很多可以探讨的地方
46:06可是时间有限了哈
46:07我们看看下次外面还没有时间
46:10我们来做这个呃这个分享哈
46:13那当然今天我们在FVLive的部分呢也要很多哈
46:15所以如果你是值得狄狄狄狄的部分的话呢
46:17也建议大家去看Melody的这个完整版的FVLive
46:21有很多的一些资讯大家可以好好的去吸收一下
46:24希望大家也知道网机网络还是AI的这些工具呢
46:27都是有需要有一个边界负责任的这个感觉
46:31今天也非常感谢YB张念全上到我们节目
46:34是的 谢谢YB
46:36谢谢
46:37好了 最后回来呢
46:38就会再来跟Melody探计回报了哈
46:40我们为了推荐呢
46:41这一部好赞的电子
46:42这个摩托卡
46:43叫做预算爱的Vivian
46:45做了这个房门
46:46手举Melody
46:47好的 我们也谢谢我们在FVLive
46:52听着我们的这个聊天的朋友们
46:55谢谢大家
46:56谢谢
46:57谢谢
46:58谢谢YB
46:59谢谢YB
47:00谢谢YB