导读:
AI诈骗的6大套路揭秘
近年来,随着AI技术的发展,各种新型诈骗手段层出不穷。尤其是生成式AI(AIGC)和语音合成技术的普及,让骗子们有了更多“高科技”工具。
- AI换脸视频诈骗:利用Deepfake技术伪造熟人面孔进行视频通话,骗取信任后实施诈骗。
- AI语音合成诈骗:通过模仿亲友声音,诱导受害者转账。
- 虚假客服诈骗:冒充平台客服,以退款、升级服务等理由要求提供验证码或转账。
- AI生成虚假内容引流:用AI编造谣言、制造热点新闻吸引流量,再植入广告或非法链接。
- 虚拟恋人/赛博舔狗:AI模拟情感陪伴,诱导用户充值打赏甚至裸聊勒索。
- 钓鱼网站与AI对话结合:伪装成AI聊天机器人,引导用户输入账号密码等敏感信息。
GPT-4o到底有多像人?
2024年5月1日,OpenAI发布了最新多模态模型GPT-4o,它能处理文本、音频、图像等多种输入,并实时输出结果,几乎可以做到无缝交流。网友戏称它为“最像人的AI”,因为它不仅能理解语境,还能根据情绪做出回应。
“以前的AI像个机器人,现在的GPT-4o更像是一个会思考的人。”——某科技博主评论道。
但正是这种“人性化”的表现,让一些不法分子看到了可乘之机。他们利用AI的拟人性,制造出更逼真的诈骗场景,让人防不胜防。
真实案例:9秒被骗245万
去年4月,安徽警方通报一起震惊全国的AI诈骗案。一名受害人接到“好友”的视频通话请求,对方称有一个项目招标需要周转资金,仅短短9秒钟的视频通话后,受害人便转账245万元。
事后调查发现,这段视频是骗子使用AI换脸技术伪造的,连声音也是合成的。整个过程不到10秒,却造成了巨额损失。
类似案件屡见不鲜,如2023年曾有报道,有人在10分钟内被AI换脸视频骗走430万元。这些数字触目惊心,也提醒我们:AI诈骗已不再是科幻情节,而是现实中的危险。
如何识别AI骗局?专家支招
面对日益猖獗的AI诈骗,公众该如何防范?以下是一些实用建议:
- 多重验证身份:凡是涉及金钱往来,务必通过电话、视频、短信等多种方式确认对方身份。
- 警惕异常行为:如果对方突然提出紧急转账需求,或者语气、表情不自然,需提高警惕。
- 保护个人信息:不要随意上传身份证、银行卡、人脸照片等敏感信息到网络。
- 安装反诈APP:如国家反诈中心APP,开启来电预警功能。
- 提升安全意识:定期学习网络安全知识,了解最新的诈骗手段。
江汉祥教授提醒:“只要涉及到钱的问题,一定要通过多种方式确认身份,尤其是不能轻信视频通话中的‘熟人’。”
在这个AI技术飞速发展的时代,我们既要享受它的便利,也要警惕它带来的风险。毕竟,AI本身没有善恶之分,关键在于使用它的人。
发表评论 取消回复