过去,人们常说“亲眼看见的就是真的”,但是现在,随着人工智能技术飞速发展,这种说法越来越不靠谱了。

AI换脸,AI语音模拟,这些原本只在科幻电影里才有的技术,已经进入了我们的现实生活,并且被一些不法分子利用,变成了新的诈骗手段。

福建的郭先生,就遭遇了一场高科技诈骗,他万万没想到,仅仅是十分钟的视频聊天,就让他损失了430万元,这背后,是一种你可能都没听说过的骗局,AI诈骗,它比你想象的更可怕。

2023年4月,郭先生接到了朋友打给他的视频电话,在视频里,他的“朋友”说自己在外地投标,需要借用郭先生的公司账户,走账430万的保证金,并且保证很快会把钱还回来。

郭先生看着手机视频中的好友,根本看不出任何的端倪,外貌和声音都跟他的朋友一模一样,所以郭先生就没多想,认为朋友可能是真有急事。
而对方也是迅速发来了一张转账凭证的照片,郭先生看到后信以为真,马上把430万元转了出去,然而,仅仅几个小时后,真正的朋友来电,郭先生才猛然醒悟,自己被AI换脸技术欺骗了。

他后来才知道,朋友根本不知道这件事,原来这是骗子利用了AI换脸这种高科技手段,伪装成他朋友的样子来骗他。
这笔430万元的巨款,可是郭先生辛辛苦苦积攒的血汗钱,人工智能本来是为我们带来好处的,现在却成了骗子手里的“升级”装备。

这种事情也不是第一次发生了,就在2023年7月,一位七十多岁的老爷爷,也差点被同样的骗局骗走一百万存款,幸亏银行工作人员够警觉,帮他保住了钱,骗子就是钻了视频通话让人容易相信的空子,才这么容易得手的。
AI情感诈骗更让人害怕的是,AI诈骗的套路还在不停升级,变得越来越隐蔽,更难让人发现和防备,本来网恋就容易遇到各种问题,现在有了AI,风险就更高了。

2024年,刘先生在短视频APP上认识了一个叫“焦女士”的网友,两人聊得很开心,很快就谈起了恋爱,这位“焦女士”看起来很年轻漂亮,对刘先生也很温柔体贴,让他特别喜欢。
可是,这个所谓的“焦女士”总找借口不肯见面,而且交往期间,焦女士还总是找各种借口,向刘先生要钱,像是要开店做生意,家里人生病住院等等。

就这样,刘先生陆续转给她二十多万,后来,刘先生越想越觉得有问题,报警后才知道真相,根本没有“焦女士”这个人。
他看到的那些照片和视频,全是AI合成的假象,他朝思暮想的“女朋友”,只不过是虚拟的图像,和他甜言蜜语的“焦女士”压根是假的。

那些漂亮的照片和视频,都是AI合成的,和他聊天的也不是什么知心爱人,而是专业的客服人员,而他,不幸成了“爱情诈骗”的目标。
这种新型的AI情感骗局,正是抓住了人们渴望爱情的心情,让人在虚构的网络世界里越陷越深,结果是感情被玩弄,钱财也打了水漂。

还有一种AI语音诈骗跟换脸诈骗一样,也让人非常担心,李女士接到一个电话,对方的声音和她的父亲一模一样。

电话中的“父亲”声称,自己在外遇到了意外,需要李女士立即转账治疗费用,李女士心急如焚,没有多想就转了钱。
然而,事后她给父亲打电话询问情况,才发现自己被骗了,原来,诈骗者是通过收集李女士父亲在网络上的声音片段,利用AI语音合成技术制作的诈骗电话

诈骗分子利用AI技术,模仿李女士父亲的声音,而且模仿的非常逼真,李女士根本就听不出真假。
AI诈骗的背后而AI诈骗的背后,是一条分工明确的黑色产业链在运作,写软件的,提供技术的,卖产品的,加上搞诈骗的,他们这些些人为了赚钱,让整个社会的信任度都受到了挑战。

AI诈骗的成本极低,花上几十块钱就能搞定一套AI换脸工具,卖家还会提供详细指导,教你一步步学会如何换脸。
想模仿别人的声音?提供一段短短20秒的录音,就能克隆出带有情绪,真假难辨的声音,这些工具和服务,披着“网恋神器”、“无痕换脸”的外衣,在网上公开销售。

大大方便了诈骗分子实施犯罪,他们利用这些技术,实施各种各样的诈骗活动,让很多人防不胜防,造成了巨大的损失。
图像生成技术,可以创造出根本就不存在的人物,生成各种看起来很真的照片和视频,还有深度伪造技术,能把“换脸”做到非常完美。

不管是动作,表情还是神态,都能模仿的跟真人一模一样,让人分不清真假,这些技术本来可以帮助社会发展,让生活更美好,可惜被坏人利用,成了他们骗钱的工具,实在让人觉得可惜。
更离谱的是,有些卖家还大肆宣扬他们能做到“天衣无缝”,这种猖狂的态度实在让人震惊,他们眼里只有钱,完全不考虑这种行为,会对社会造成多大的伤害。

面对越来越高明的AI诈骗,保护自己要更加小心,只要是和钱相关的,一定要认真确认对方身份。
而接到不认识的电话或信息,特别是提到钱的事情,务必通过其他方式,确认对方是不是真的,可以给共同认识的人打电话,或者直接拨打回去核实,问一些只有你们才清楚的问题。

除此之外,保护好你的个人信息非常重要,别随便点不认识的链接或扫不清楚的二维码,那些可能藏着陷阱。
平时也要留个心眼,保护好你的声音,现在有些坏人会用你的声音去做坏事,可得当心点,另外,我们得加强自我保护意识。

多看看新闻报道,知道现在都有哪些新的骗人招数,也提醒家里的亲戚朋友,特别是老年人,让他们多留个心眼,别轻易上当。
要是碰上觉得不对劲的情况,赶紧报警,尤其是在视频聊天的时候,仔细看看对方的脸部线条、光照、表情,看看是不是有什么地方不太对劲,比如画面是不是模糊,光线是不是不自然。

为了确认画面是否流畅自然,是否存在AI换脸的情况,你可以请对方做一些简单的动作,比如抬起头、左右转头、点头等。
通过观察这些动作的流畅程度,可以初步判断画面是否真实,同时,密切关注对方的嘴部动作和所说的内容是否一致,这也是判断是否存在AI换脸的重要方法,如果嘴型和说话内容不匹配,很可能存在AI换脸的嫌疑。

面对AI诈骗,大家生活中一定要提高警惕,保护好自己的财产和信息安全,而相关平台和部门也要建立更完善的保护机制,让我们放心安全的享受科技带来的好处。
关于AI诈骗,你们有什么看法?生活中有遇到过类似的情况么?

信息来源:



