首页> 香港> 正文

港男裸聊变色情片主角 骗徒用AI盗脸勒索!

浏览次数:8792 发布时间:2023-07-03
网络骗案防不胜防,有图有真相已成过去,接下来即将面临有影片也难有真相的挑战。AI人工智能换脸、换声的深伪(深度伪造,Deepfake)技术开始运用于诈骗,正在全球迅速蔓延,香港今年以来也收到两宗涉及AI诈骗的查找。
港男裸聊变色情片主角 骗徒用AI盗脸勒索!

image.png

网络骗案防不胜防,有图有真相已成过去,接下来即将面临有影片也难有真相的挑战。AI人工智能换脸、换声的深伪(深度伪造,Deepfake)技术开始运用于诈骗,正在全球迅速蔓延,香港今年以来也收到两宗涉及AI诈骗的查找。

 

综合文汇报、明报报导,今年3月,一名25岁香港男子在交友平台玩裸聊,被诱骗下载不知名手机程序,骗徒通过程序的视像功能盗取港男的样貌及手机电话簿,再以深伪技术将其头像移花接木到色情影片,然后向事主勒索1万元(港币,下同,约1276美元)。事主拒绝付款,但他只是通知警方,没有正式报案。

 

据报导,另一则发生在5月,日本一名男子在社交平台,认识自称是香港A银行的行政总裁,对方帐户载有一段怀疑以深伪技术假冒美国CNN主播与这名行政总裁的访谈节目,对方声称银行正推出被动收入的投资计划,要求事主购买1700元的点数卡,但事主向A银行查找,揭发骗案。

 

尽管因技术和成本等原因尚未成为诈骗案的主要类型,香港警方仍提醒,随着AI技术日趋成熟,市民应及早提高防范意识,谨记眼见不一定为实,有图并不一定是真相。

 

警方日前讲解和分析深伪技术骗局的趋势及现存的穿帮弱点,建议市民可叫对方在镜头前做指定动作来识破真人假象,同时提醒市民避免接听陌生人的视像电话,保护好个人脸部、声音等生物特征信息,免被骗徒收集成数据用来换脸换声造假行骗。

 

香港警方网络安全及科技罪案调查科首次委任4名警务督察作为防骗刑警,日前向港媒分享包括AI深伪技术在内的科技罪案趋势和手法以及有效防骗策略。

 

警方分析指,骗徒通常需要收集大量被仿真对象的原始影像及语音数据,才能达到理想的伪造成果,过程要配合高运算力的电脑,需时费力。警方指出,要特别留意手指在镜头摆动的动作,因数据不完整及电脑运算力不足,无法应对突然改变的画面,令手指动作变得模糊和迟滞。所以,市民若有怀疑,只要叫对方在视像中做出用手指横过脸部的动作,便可看出上述破绽,即可判定这可能是一个假影像。


关于新闻网 广告服务 联系我们
联系我们福布斯公司客服电话19048888882