摘要:近日,常州警方通报一起案例,极有可能是诈骗分子通过AI技术“变声”、“换脸”诈骗手段合成而来。具体情况:小刘的初中同学“小韩”通过QQ联系小刘,准备借6000元钱,小刘向来谨慎,担心“小韩”不是本人,没想到“小韩”发来一条语音,声音很像本人...
近日,常州警方通报一起案例,极有可能是诈骗分子通过AI技术“变声”、“换脸”诈骗手段合成而来。
具体情况:
小刘的初中同学“小韩”通过QQ联系小刘,准备借6000元钱,小刘向来谨慎,担心“小韩”不是本人,没想到“小韩”发来一条语音,声音很像本人,后来“小韩”又给小刘打了一通视频电话,看到对方的脸后,小刘便相信了对方,于是小刘便给“小韩”提供的银行卡转了6000元,小刘转完钱后越想越不对劲,觉得“小韩”表情僵硬,于是拨打小韩的电话,没想到小韩的QQ账号被盗了,这才意识到被骗,随后立即报警。
警方初步判断,通话的视频极有可能是诈骗分子通过AI技术“变声”、“换脸”诈骗手段合成而来。
最近ChatGPT引爆AI风潮
刷新了人们对AI的认知
AI技术是把“双刃剑”
在给人们生活提供便利的同时
也给不法分子留下了可乘之机
眼见不一定为真
耳听也不一定为实
从声音、图像到视频
只要你一不小心就会“入套”
今天就带大家
分辨AI“花式”骗局
练就“火眼金睛”
让AI诈骗“无所遁形”!
AI诈骗常见手法
01
AI合成声音诈骗
骗子会通过拨打骚扰电话等方式,录音提取诈骗对象及其重要关系人的声音特征,利用AI技术进行语音合成,使诈骗对象放松警惕,进而用伪造的声音实施诈骗。
02
AI换脸诈骗
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,骗子会利用AI技术,将他人的脸换成指定人的脸,冒充诈骗对象的亲人、朋友等重要关系人,通过合成视频或照片来“以假乱真”,扰乱诈骗对象的视线进而实施诈骗。
03
AI筛选受骗人群
骗子不是漫无目的地广撒网,而是别有用心地锁定诈骗对象。他们会分析诈骗对象在网络平台发布的个人信息,根据所要实施的骗术利用AI技术对人群进行筛选,从而选出目标对象,制定诈骗计策。
警方提醒
1.多重验证,确认身份
在涉及钱款时,大家要提高安全意识,通过电话、视频等方式确认对方是否为本人,在不能确定真实身份时,要格外留意、不要着急汇款,避免上当受骗,建议将到账时间设定为“2小时到账”或“24小时到账”,以预留处理时间。
2.保护信息,拒绝诱惑
为避免骗子窃取个人信息实施诈骗,大家应当加强个人信息保护意识,·切勿接听任何陌生人邀请的视频验证或语音聊天,谨防骗子利用AI技术搜集人脸、声音等素材,掌握大量个人信息并对人物性格、需求倾向等进行刻画,从而有针对性地实施诈骗。
3.相互提醒,共同预防
当前信息技术发展快,老人常常难以适应,中青年人要及时做好家中老人的宣传教育工作。提醒老年人对不认识、不熟悉的人和事,均不要理睬,向老年人及时解析新型诈骗手段,以防被骗。遇到亲友借钱,应多方核实,不要贸然转账。
内容来源:常州公安