导读:

AI换脸,真的能取代真人吗?

你有没有发现,最近刷短视频时,有些账号的内容越来越像“真人出镜”,甚至连表情、动作都自然得让人信以为真。但真相是——他们根本不是真人!

一位业内人士曾透露,一个AI数字人账号,仅靠一段30秒的AI生成视频,就能在短短几个月内涨粉39万,并实现带货销售额超21万元。

AI虚拟主播在直播卖货

更可怕的是,这种技术已经被某些黑灰产滥用。从明星脸到企业高管的脸,甚至政治人物的脸,都被明码标价在网上兜售。

这些“真人”其实都是AI合成的!

你以为你在看的是真实人物直播带货?其实,很多所谓的“达人”、“专家”、“名人”可能只是AI换脸后的“假人”。

比如,有人用AI合成了全国政协委员靳东的形象,伪装成他本人与粉丝互动,差点骗走一位老人200万元;还有AI换脸张文宏医生“带货”,不少老年人竟然真的下单购买。

去年国庆期间,雷军的声音也被AI捏造,网上甚至出现了“雷军语音包”,说什么都不奇怪。

“眼见为实”已经不再可靠,AI换脸和换声技术的发展速度远超我们的想象。

小心,你的亲人可能正被AI骗钱!

最令人担忧的是,AI换脸技术已经成为新型诈骗工具。

2024年12月,北京丰台区就发生一起利用AI冒充马云的诈骗案,骗子通过视频通话诱导老人购买保健品,所幸被社区工作人员及时拦截。

更早之前,山东淄博一名82岁老人因接到“AI外孙”的视频电话,被骗走了32.6万元。

一位名叫“滤镜粉碎机”的博主做过实验:他仅用15秒的AI换脸视频,在三小时内就成功说服一位团队成员的母亲转账两万元。

老人面对AI换脸视频中的家人

如何识别AI换脸视频?这几点很关键

虽然AI换脸技术越来越逼真,但也并非无迹可寻。以下是一些常见的识别技巧:

  • 面部细节不协调:比如眨眼频率不一致、眼神飘忽不定、嘴角不对称等。
  • 动作生硬或重复:AI生成的动作有时会显得不够自然,尤其是头部转动或表情变化时。
  • 声音与口型不匹配:即使AI可以同步声音和嘴型,但在某些音节上仍会出现错位。
  • 背景过于单一或模糊:为了减少计算量,AI换脸视频往往采用固定背景或虚化处理。

未来我们该如何防范AI诈骗?

面对AI换脸带来的安全隐患,我们不能坐以待毙。国家层面也在逐步出台相关政策。

例如,《互联网信息服务深度合成管理规定》自2023年起施行,明确要求对AI生成内容进行标注和审核。

平台方面也需要加强技术手段,升级审核系统,防止AI滥用。

作为普通用户,更要提高警惕,遇到可疑信息时多加核实,必要时可通过语音、文字等方式二次确认身份。

记住一句话:再像真人,也可能是AI。

点赞(0)

评论列表 共有 0 条评论

暂无评论
立即
投稿
发表
评论
返回
顶部