近年来,AI换脸技术被应用在各个领域,不法分子也动起了歪心思,利用AI换脸实施犯罪,例如伪造不雅视频、换脸诈骗等。AI换脸不仅可以快速将一张人脸无缝融入另一个图片或视频中,甚至连人物表情、口型都可以用AI技术合成,具有更强的“以假乱真”效果。警方提示,不要轻信骗子的话术或者为了保全自身名誉而转账,遭遇此事务必保持沉着冷静,不要慌中出错。
典型案例
1、2023年4月6日,南通的荆某报警称:其接到一个QQ视频后,头像被AI合成裸聊视频,对方威胁其转账,否则将视频进行传播。
2、2023年4月19日,淮安的周某报警称:收到一条敲诈短信,上面是用自己脸P的在酒店开房的图片,可能是自己最近在抖音上玩了AI换脸泄露。
3、2023年4月19日,无锡的蒋某报警称:收到一条短信,内容是一张色情视频截图,里面男性的脸被AI换成了蒋某自己的脸,对方要让其转账处理这个事情。
4、2023年5月17日,南京的信某报警称:其接到诈骗短信,对方用AI合成的黄色图片威胁其转账。
特点分析
AI换脸诈骗主要利用的是受害人收到不雅视频后的紧张恐慌、爱惜名声、难以启齿的心理,一些受害人甚至明知“不雅视频”或“艳照”是假的,但依旧害怕不转钱会被骗子陷害,从而产生“破财消灾”的念头。
警方提示
1、“不听不信不转账”。身正不怕影子斜,凡是突然收到来历不明的视频、照片,一律删除,不要理会,更不要转账汇款。
2、“陌生信息三不要”。陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号;
3、“保护隐私四不晒”。要提高个人防范意识,在全网公开的平台中,规避个人情况的过度分享,做到不晒个人或家人照片、不晒位置信息、不晒行程票据、不晒车牌门牌等。