近日
#怎样防范AI换脸诈骗#
冲上微博热搜
近年来,随着人工智能(AI)技术的迅猛发展,我们享受到了许多便利和创新。然而,正如任何其他技术一样,AI也存在被不法分子利用的风险。AI诈骗作为一种新兴的威胁,已经对个人、组织和社会造成了巨大的损失。以下这些案例值得我们警惕:
案例一
2023年4月20日中午,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。
“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备”,郭先生说。
案例二
2022年2月,陈先生到浙江温州一家派出所报案,说自己被“好友”诈骗了近5万元。原来,诈骗分子利用陈先生好友在社交平台发布的视频,截取其中面部画面,再用AI换脸技术进行合成,就制造了陈先生与“好友”视频聊天的假象。
案例三
2021年浙江温州拱宸桥派出所接到报警,受害人小陈称他在与女网友视频聊天后被对方敲诈勒索。经警方调查,对方利用AI换脸技术,将小陈视频中的面部合成到不雅视频中,借此对其实施勒索。
案例四
2020年,上海某公司高管因对方使用AI换脸与人工生成的语音技术制作公司领导的面孔,并要该高管转账,致使该高管被诈骗150万元。
AI诈骗是利用人工智能技术进行的欺诈行为,其目的是获取个人信息、财务数据或利用受害者进行其他违法活动。常见的AI诈骗手段包括虚假招聘、仿冒身份、社交工程、钓鱼邮件等。通过了解这些手段,我们可以更好地识别和避免潜在的风险。以下AI诈骗常用手法要牢记:
1
声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
2
AI换脸
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
3
转发微信语音
尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可以实现语音转发。
4
AI程序筛选受害人
骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。
例如实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。
如何防范IA诈骗?
1
多重验证,确认身份
如果有人要求你分享个人身份信息,如你的地址、出生日期或名字,要小心。
对突如其来的电话保持警惕,即使是来自你认识的人,因为来电显示的号码可能是伪造的。
网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。
如果有人自称“熟人”、“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。
2
保护信息,避免诱惑
不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。
陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号。
3
使用可靠的安全工具和技术
为了保护我们的设备和网络免受AI诈骗的侵害,我们应该使用可靠的安全工具和技术,确保操作系统和应用程序保持最新版本,并安装可信赖的防病毒软件和防火墙。此外,使用强密码、启用多要素身份验证和定期备份数据也是防范AI诈骗的重要措施。
如果接到了骗子的视频通话
下列技巧可供参考
盯着对方的眼睛
AI换脸多用睁眼照片合成
眨眼频率跟真人有区别
不妨留心观察
要求对方用手指在面部晃动
用手掌挡住脸的一部分
看看面部会不会扭曲变形
这是因为
骗子训练AI算法时
用的多是人物正面照
程序无法处理突然出现在面前的物体
本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:dandanxi6@qq.com