近期,一起利用 AI 技术炮制明星谣言的案件引发广泛关注。36 岁网民徐某强通过某平台的 AI 智慧生成功能,编造 “顶流明星澳门输光 10 亿” 的虚假信息,导致黄晓明、周杰伦等艺人无端卷入舆论漩涡。该谣言在社交媒体上的阅读量突破 10 亿次,最终徐某被公安机关依法行政拘留 8 日。
徐某强的造谣行为呈现出典型的 “AI 工业化生产” 特征:他仅需输入 “顶流明星”“豪赌”“十亿” 等关键词,AI 工具便自动生成逻辑连贯、标题吸睛的谣言文本。为增强可信度,他还伪造了 “赌场监控截图” 和 “权威机构报告”,甚至模拟明星语音生成短视频。这种低成本、高效率的造谣模式,使得谣言在 24 小时内迅速登上热搜,相关话题讨论量超 8.2 万条,直接导致被造谣明星的品牌合作方集体质疑,预估经济损失超千万元。
社交平台的算法推荐机制在谣言传播中扮演了 “加速器” 角色。当徐某强的谣言被发布后,平台算法基于 “流量优先” 原则,将其推送给大量可能感兴趣的用户,导致传播呈指数级增长。
提高警惕
不法分子通过社交平台(如朋友圈、抖音)窃取受害者家人的照片、语音片段(如生日祝福、日常对话),利用开源 AI 工具(如 DeepFaceLab、Vocaloid)训练生成模型,耗时短至数小时即可合成高度逼真的 “家人” 形象或声音。
案例:2024 年广东某市民接到 “女儿” 视频电话,称在国外突发车祸需手术费,其 “女儿” 哭泣求助并展示 “医院环境”,受害者 10 分钟内转账 85 万元,后发现视频为 AI 换脸,声音是提取其女儿过往语音合成。
诈骗分子常虚构 “车祸急救”“海外遭绑架”“突发疾病” 等紧急场景,要求 “立即转账”,并以 “信号不好”“不方便通话” 等理由拒绝进一步验证(如要求做指定动作、回答私密问题),利用受害者慌乱心理突破防线。
部分高级诈骗已实现 “实时 AI 换脸通话”,通过摄像头捕捉受害者画面,同步生成 “家人” 动态回应(如点头、眨眼),甚至结合语义分析技术,让 “AI 家人” 对简单提问做出合理回答,进一步混淆真伪
2025 年浙江案例:骗子通过某短视频平台下载受害者母亲的跳舞视频,使用 AI 去除背景并替换成 “病房” 场景,生成 “母亲躺在病床上求助” 的视频,同时克隆其方言口音,谎称 “突发心梗需手术费”,受害者 30 分钟内转账 30 万元。
跨国诈骗新套路:针对留学生家庭,骗子先通过暗网购买留学生社交账号(含照片、课程表、宿舍信息),再伪造 “教授”“辅导员” 身份联系家长,称 “学生在境外参与违规活动被拘留,需缴纳保释金”,并用 AI 合成学生 “哭泣道歉” 的音频,部分家长因 “时差无法联系孩子” 而受骗。
预防
反常识提问:在对方提出转账请求时,立即询问只有家人知晓的 “私密问题”(如 “我去年生日你送了什么礼物?”“老家门牌号后三位?”),AI 无法掌握真实记忆细节。
动态动作验证:要求对方 “举起右手比剪刀手”“眨三下眼睛”“用左手摸耳朵” 等实时动作,AI 生成的静态或预录视频难以完成复杂动态交互。
延迟转账:以 “需要凑钱”“银行卡限额” 为由拖延时间(至少 30 分钟),期间通过其他渠道(如拨打家人常用电话、联系其身边朋友)交叉验证。