新型诈骗黑科技:AI 换脸 + 拟声
骗子精准拿捏信任
当熟悉的面孔出现在视频里、亲切的声音从电话中传来,你以为是亲友求助、领导指令?小心!这可能是诈骗分子用 AI 技术编织的陷阱。所谓 “AI 换脸 + 拟声诈骗”,是骗子通过非法获取的个人信息(照片、语音片段、社交动态等),利用 AI 深度合成技术伪造目标人物的面部影像和声音,再编造紧急场景实施诈骗的新型犯罪。
这类诈骗的可怕之处在于:仅需 1 分钟公开视频、几句语音素材,AI 就能高度还原人物的容貌、语气甚至口音,搭配虚拟号码伪装,让 “眼见为实”“耳听为真” 彻底失效。更隐蔽的是,诈骗链条已产业化 —— 上游非法贩卖个人信息,中游提供 AI 技术工具,下游专人实施诈骗,精准狙击不同人群的心理弱点。
真实案例触目惊心,这些悲剧正在发生:
养老钱被骗!AI 拟声冒充孙辈急索救命钱
76 岁的孙大爷接到 “孙子” 来电,电话里传来焦急的声音:“爷爷,我跟人起冲突把人打成重伤,急需 12 万手术费!” 心急如焚的孙大爷立刻取了 10 万元现金交给自称 “孙子朋友” 的人,事后核实才知孙子一切安好。无独有偶,78 岁的李大娘也被同样套路骗走 9 万元,所幸警方及时追回赃款。最高法披露的典型案例中,甚至有骗子专门安排人员上门取款,从 3 名独居老人处骗取现金 6 万元。
430 万瞬间蒸发!AI 换脸冒充领导发指令
某公司财务人员接到 “老板” 视频电话,屏幕中老板的容貌、声音与真人无异,以 “紧急支付项目保证金” 为由要求转账。财务人员通过视频确认身份后,10 分钟内被骗走 430 万元。经查,骗子仅从社交平台下载了老板的公开演讲视频,子分身”。
跨国企业被骗 2 亿!AI 生成全员 “高层会议”
某跨国公司香港分部财务人员参与 “高层视频会议”,参会的 “CEO”“高管” 均为 AI 深度伪造影像,最终被诱导转账 2 亿港元,成为目前已知单笔损失最大的 AI 换脸诈骗案。
名人也中招!AI 换脸伪造代言误导公众
近日新加坡大法官梅达顺的 “产品代言视频” 在社交平台传播,法院紧急澄清该视频是 AI 换脸 + 语音合成的伪造内容。骗子利用公众对名人的信任,通过虚假代言诱导投资或消费,迷惑性极强。

防骗指南:记住这 6 点,守住钱袋子
凡是涉钱转账,必做二次核实
无论视频、语音多么逼真,只要涉及转账、借钱、付费等敏感要求,立刻挂断电话,通过对方常用手机号、微信视频等可靠渠道直接联系核实,或向共同亲友侧面确认,绝不相信“单线联系”“保密要求”。
学会识别 AI 破绽,细节见真章
视频中人物动作僵硬、表情不自然,要求对方做转头、手掌遮脸再移开等复杂动作,AI 在模拟光影变化和遮挡时易出现卡顿、扭曲;
语音缺乏自然呼吸停顿和情感起伏,带有轻微机械感或异常杂音,需警惕 “过于完美” 的声音。
保护个人信息,筑牢第一道防线
不随意在社交平台发布高清照片、语音片段、家庭关系等信息;智能设备首次联网时,立即修改默认密码为高强度密码,关闭不必要的权限,不用智能摄像头时直接遮挡或断电。

警惕紧急场景,拒绝情绪绑架
骗子常编造 “车祸”“被抓”“急病手术”“项目紧急付款” 等紧急事由,制造恐慌情绪迫使受害者仓促决策。遇到此类情况,先冷静 3 分钟,告诉自己 “越紧急越要核实”,切勿被情绪操控。
牢记官方预警渠道,及时求助
全国反诈劝阻专线 96110 来电务必接听,这是警方针对潜在受害人的预警电话;河南省已启用 96110 智能呼叫中心,实现涉诈风险 “毫秒级研判、精准化预警”,遇到可疑情况可主动拨打咨询。
发现被骗别慌,保留证据及时报警
一旦察觉被骗,立即保留通话录音、聊天记录、转账凭证、可疑视频等证据,第一时间拨打 110 报警,配合警方开展调查。
警方提醒
AI 技术再先进,诈骗的本质仍是 “骗取信任、索要钱财”。无论技术如何升级,只要涉及金钱往来,坚持 “核实为先” 的原则,就不会给骗子可乘之机。转发给家人朋友,一起筑牢反诈防线!