中国出现AI换脸新骗局, 10分钟被骗430万人民币
青锋明 • • 104 次浏览
随着人工智能的发展,中国近期出现AI换脸新骗局,福州市一名科技公司老板10分钟被骗走430万元(人民币,下同,约82.28万新元)。
据平安包头微信号星期六(5月20日)发布的消息,包头市公安局电信网络犯罪侦查局5月8日发布一起使用智能AI技术进行电信诈骗的案件。
案情显示,福州市某科技公司老板郭先生的好友4月20日突然通过微信视频联系到他。朋友称在外地投标需要430万元保证金,要求借郭先生的公司账户过账。
好友向郭先生要了银行卡号,声称已把钱打到郭先生的账户上,还把银行转账底单的截图通过微信发给郭先生。郭先生出于信任在未核实好友转账截图的情况下,就将430万元转出。10分钟后,郭先生微信告诉好友事已办妥,但好友称并无此事。
郭先生与好友通电话后才发现,骗子通过AI换脸技术,佯装好友对他实施了诈骗。
在警方和银行的帮助下,从诈骗账户追回336.84万元被骗资金,包头和福州警方仍在追缴剩余的93.16万元。
据每经网报道,AI诈骗目前有声音合成和AI换脸两种形式。声音合成诈骗,骗子会先通过骚扰电话提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
AI换脸诈骗,骗子会先分析公众在网上发布的信息筛选目标人群,之后通过AI技术换脸伪装,再通过视频进行信息确认,完成诈骗。
-
#1
爱在朋友圈晒照片的小心了脸 声音都可以仿
-
#2
智商不足被骗了,就谎称被换脸给骗了
-
#3
有这ai的开发能力,早就搞个公司上市圈钱了
-
#4
应该是用现成的
-
#5
现在在网上都能找到相关的程序跟教程。现在开始不面对面都不能分辨对方是不是对方,
再发展下去是不是面对面都无法分辨对方是不是对方了。
想想挺可怕的。 -
#6
让对方证明,其实办法应该很多的。
-
#7
随便寒暄几句,也能知道对方是不是你真正的朋友我觉得这就是弱智被骗了,觉得脸上挂不住,编个高大上的理由试图遮丑。
和以前说骗子拿个啥东西,被害人一闻之后马上问啥说啥,非常听话,一个道理。都是扯淡。 -
#8
最近中国出现了一种新型的电信诈骗,使用的是人工智能换脸技术,而一名福州科技公司老板就因此被骗走了430万元人民币(约82.28万新元)。据报道,这名老板的好友在4月20日通过微信视频联系他,称需要430万元保证金用于某个投标项目,并要求借用老板的公司账户过账。老板没经过核实就将钱转走,之后才发现这名好友被骗了,对方用AI换脸技术伪装成朋友诈骗他的钱财。在警方和银行的帮助下,老板被追回336.84万元被骗资金,93.16万元仍未找回。
据报道,目前在电信诈骗中,AI换脸技术和声音合成技术是主要的手段。声音合成诈骗利用骚扰电话获取某人的声音,然后将素材进行声音合成以欺骗对方。而AI换脸诈骗则会通过分析公众在网上发布的信息来筛选目标人群,之后可以用AI技术换脸伪装成诈骗对象并通过视频确认信息,实现欺骗的目的。
这种新型的电信诈骗手段确实让人们感到非常惊恐和无力。在此提醒大家,在日常生活中,一定要保持警觉,谨防电信诈骗。除了不轻信陌生人的要求,还应该切勿提供太多自己的个人信息,比如银行卡号、密码、网络账号和密码等。另外,在与朋友进行交流时,可以通过其他渠道与其进行确认,比如用其他社交平台或电话联系对方,以免上当受骗。
该事件也提醒我们要关注人工智能技术的发展和运用。尽管AI技术有着诸多优势和创新,但也面临着风险和挑战。作为一个普通用户,我们应该提高警惕,不将其视为日常生活中不可避免的事物,而是积极去认识、了解和保护自己免受欺骗和侵害。