导读:
AI换脸,真的能取代真人吗?
你有没有发现,最近刷短视频时,有些账号的内容越来越像“真人出镜”,甚至连表情、动作都自然得让人信以为真。但真相是——他们根本不是真人!
一位业内人士曾透露,一个AI数字人账号,仅靠一段30秒的AI生成视频,就能在短短几个月内涨粉39万,并实现带货销售额超21万元。
更可怕的是,这种技术已经被某些黑灰产滥用。从明星脸到企业高管的脸,甚至政治人物的脸,都被明码标价在网上兜售。
这些“真人”其实都是AI合成的!
你以为你在看的是真实人物直播带货?其实,很多所谓的“达人”、“专家”、“名人”可能只是AI换脸后的“假人”。
比如,有人用AI合成了全国政协委员靳东的形象,伪装成他本人与粉丝互动,差点骗走一位老人200万元;还有AI换脸张文宏医生“带货”,不少老年人竟然真的下单购买。
去年国庆期间,雷军的声音也被AI捏造,网上甚至出现了“雷军语音包”,说什么都不奇怪。
“眼见为实”已经不再可靠,AI换脸和换声技术的发展速度远超我们的想象。
小心,你的亲人可能正被AI骗钱!
最令人担忧的是,AI换脸技术已经成为新型诈骗工具。
2024年12月,北京丰台区就发生一起利用AI冒充马云的诈骗案,骗子通过视频通话诱导老人购买保健品,所幸被社区工作人员及时拦截。
更早之前,山东淄博一名82岁老人因接到“AI外孙”的视频电话,被骗走了32.6万元。
一位名叫“滤镜粉碎机”的博主做过实验:他仅用15秒的AI换脸视频,在三小时内就成功说服一位团队成员的母亲转账两万元。
如何识别AI换脸视频?这几点很关键
虽然AI换脸技术越来越逼真,但也并非无迹可寻。以下是一些常见的识别技巧:
- 面部细节不协调:比如眨眼频率不一致、眼神飘忽不定、嘴角不对称等。
- 动作生硬或重复:AI生成的动作有时会显得不够自然,尤其是头部转动或表情变化时。
- 声音与口型不匹配:即使AI可以同步声音和嘴型,但在某些音节上仍会出现错位。
- 背景过于单一或模糊:为了减少计算量,AI换脸视频往往采用固定背景或虚化处理。
未来我们该如何防范AI诈骗?
面对AI换脸带来的安全隐患,我们不能坐以待毙。国家层面也在逐步出台相关政策。
例如,《互联网信息服务深度合成管理规定》自2023年起施行,明确要求对AI生成内容进行标注和审核。
平台方面也需要加强技术手段,升级审核系统,防止AI滥用。
作为普通用户,更要提高警惕,遇到可疑信息时多加核实,必要时可通过语音、文字等方式二次确认身份。
记住一句话:再像真人,也可能是AI。
发表评论 取消回复