泡泡资讯网

2024年初,香港一家跨国企业的财务职员参加了一场视频会议。屏幕里的“首席财务官

2024年初,香港一家跨国企业的财务职员参加了一场视频会议。屏幕里的“首席财务官”神情严肃,要求紧急转账,其他高管一一附议。职员按指示在数日内完成多次汇款,约2亿港元(约3300万新元)资金就此消失。事后查明:那场会议除了那名职员,没有一个真人,所有面孔都是人工智能(AI)深度伪造的影像。

这是一个极其经典的 AI“深伪”(Deepfake)多人在线视频诈骗案,不仅敲响了企业安全的警钟,更标志着网络诈骗技术已全面进入人工智能时代。

案件还原:AI“假高管”如何骗过真员工
诱饵邮件:诈骗分子最初向该职员发送伪造的英国总部高级管理人员电子邮件,声称需要进行一项“机密交易”。
多人深伪视频会议:职员起初有所怀疑,但随后被邀请参加一个多人视频会议。会议中除了受害者本人,其余参会者(包括“首席财务官”及其他同事)全部由诈骗分子利用公开的视频和音频素材,通过深度伪造技术(Deepfake)实时生成。
多轮转账:由于屏幕中的高管长相、声音和神态高度逼真,职员彻底放下防备。在随后的几天内,他分 15 次向 5 个本地银行账户共计汇入 2亿港元。
真相大白:直到几天后该职员向英国总部核实,才发现这是一场彻头彻尾的骗局。那场会议中,除他以外没有任何一个真人。

该案暴露的AI技术新型犯罪特征
1、从“一对一”升级为“多对一”:过去的 AI 换脸诈骗多为单人音视频通话。此案中,犯罪分子同时伪造了多名高管的面孔和声音,构建了一个虚假的“多人协作场景”,利用群体心理压力让受害者彻底丧失警惕。

2、剧本化与实时互动:虽然深伪画面主要是基于过去素材录制的“假人”,但犯罪分子在幕后操控,通过文字指令或预设脚本,让视频中的“高管”下达严肃命令,职员根本没有机会进行复杂的实时互动测试。

3、开源素材成为犯罪燃料:跨国企业高管的公开演讲、媒体采访和社交媒体视频,为 AI 算法提供了极其丰富的深度学习样本,使得合成的声音和面部表情几乎达到了真假难辨的地步。

企业与个人应如何防范 AI 深伪诈骗?
面对日趋成熟的 AI 欺诈,传统的“眼见为实”已不再可靠,必须建立全新的防范维度:
1. 建立非对称的“暗号验证机制”设置企业内训暗语:在涉及重大资金调拨、敏感信息交接时,必须使用内部定期更换的口令或暗号进行真人身份核验。测试对方实时反应:在视频会议中怀疑对方身份时,可提出一些需要即时思考或带有个人隐私特征的问题(例如:“你昨天在食堂吃了什么?”或“我们上周私下聊的那个项目进展如何?”)。

2. 交互动作测试法目前的实时 AI 换脸和声音合成在面对以下动作时极易露出破绽:要求对方在镜头前左右快速转头 90 度。要求对方用手在脸部前方来回挥动,观察面部边缘是否出现闪烁、扭曲或模糊。观察对方的眨眼频率是否异常、嘴唇运动与声音是否完全同步。

3. 严格优化企业财务流程(最重要的防线)多渠道多重交叉审核:绝对不能仅凭一次视频会议或一封邮件就启动转账。任何大额汇款必须引入线下签字、第三方高管电话复核等独立流程。去中心化审批:打破“高管一人说了算”的传统层级压力,赋予财务人员在未完成标准流程前拒绝转账的绝对权力。