近日,内蒙古包头市公安局电信网络犯罪侦查局公布了一起利用智能AI技术实施电信诈骗案件。福建省福州市某科技公司法定代表人郭老师10分钟被骗430万元。
【资料图】
4月20日中午,郭老师的朋友突然通过微信视频联系了他。他的朋友在外地竞拍,需要保证金430万,并要求对公账户之间转账。他想借郭老师的公司账户转钱。基于对朋友的信任,并通过视频聊天验证了其身份,郭老师在未核实钱是否到账的情况下,分两期将430万转入朋友的银行卡。郭老师拨打了朋友的电话,发现自己被骗了。骗子利用智能AI换脸和拟声词技术冒充朋友对其进行诈骗。
“他从始至终都没有向我提过借钱的事,只是说先把钱打给我,然后让我转到他朋友的账户上。而且,当时他还给我打了视频电话。”我在视频中也说过,在确认了人脸和声音后,我就放松了警惕。”郭老师说道。
所幸的是,福州、包头两地公安银行接到报警后,迅速启动止付机制,成功止付,截获336.84万元。但仍有93.16万元被转移,正在全力追缴中。
AI诈骗相关案例
据华西都市报此前报道,2022年2月,陈老师到浙江省温州市公安局瓯海分局仙岩派出所报案,称自己被一名男子诈骗近5万元。 “朋友”。经警方核实,诈骗分子利用陈老师好友“阿城”在社交平台上发布的视频,截取其脸部视频片段,然后利用“AI换脸”技术进行合成,制造出假象:陈老师正在和他的“朋友”视频聊天,对他进行诈骗。信任,从而实施欺诈。
浙江省温州市公安局曾发布消息,2021年,拱辰桥派出所接到报警。受害人小陈称,自己在与一名女网友视频聊天后遭到勒索。经警方调查,对方利用AI换脸技术,将视频中小陈的脸部合成为不雅视频,从而对其进行勒索。
2020年,上海某公司高管因对方利用AI换脸、人工生成语音技术打造公司领导面孔并要求高管转账,被骗150万元。
AI欺诈中常用的技术
第一种:声音合成
骗子通过骚扰电话录音等方式提取某人的声音,拿到素材后再合成该声音,从而可以用伪造的声音欺骗对方。
案件:
某公司财务人员接到领导电话,要求他立即向供应商转账2万元,并通过电子邮件发送了转账信息。转移的原因是为了避免支付滞纳金。由于老板的口音很真实,小王信以为真,不到一个小时就完成了转账,但后来发现自己被骗了。
第二种:AI换脸
人脸效应更容易获得对方的信任。骗子利用人工智能技术改变他们的面孔。他们可以假装成任何人,然后通过视频确认信息。
诈骗者首先分析公众在互联网上发布的各类信息,并根据他们想要实施的欺骗手段,利用人工智能技术筛选目标人群。使用人工智能在视频通话期间换脸以获得信任。
案件:
近日,小丽的大学同学通过QQ向她借钱。对方打了四五秒的视频电话。小李见确实是自己,就放心地转了3000元。然而,第二次转接的时候,她感觉有些不对劲,于是她又拨打了对方的电话号码。这时她才得知同学的账号被盗,并报了案。警方认定,视频中很可能是有人变脸了。
第三种:转发微信语音
骗子盗取微信账号后,向好友“借钱”。为了取得对方的信任,他们会转发之前的语音信息,然后骗取钱财。
虽然微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件)来实现语音转发。
类型4:人工智能程序筛选受害者
骗子利用人工智能分析公众在互联网上发布的各类信息,根据想要实施的欺骗手段进行筛选,并在短时间内制作定制的诈骗脚本,进行精准诈骗。
例如:进行情感诈骗时,可以过滤掉经常发布情感信息的人;在实施金融诈骗时,可以过滤掉经常搜索投资理财信息的人。
如何预防呢?
多重验证确认身份
如果有人要求您分享个人身份信息,例如您的地址、出生日期或姓名,请务必小心;
警惕意外来电,即使是您认识的人打来的,因为来电显示上的号码可能是假的;
网上转账前,应通过电话等多种沟通渠道核实对方身份。一旦发现风险,及时报警求助;
如果有人自称“熟人”、“领导”通过社交软件或短信以各种理由诱导您汇款,请务必通过电话、会议等方式核实,未经核实请勿转账,不要轻易泄露您的身份证件、银行账户卡、验证码等信息。
保护信息并避免诱惑
不轻易向他人提供人脸、指纹等个人生物特征信息,不过度披露或分享动画图片、视频等;
不点击不熟悉的链接,不下载不熟悉的软件,不随便添加不熟悉的好友,防止手机、电脑中病毒,微信、QQ等账号被盗。
提高安全意识
公安局没有安全账户,警方也不会网上办案。如果网络警察说您有犯罪行为,请让他联系您当地的派出所。您也可以主动拨打110咨询;
如果您不慎被骗或遇到可疑情况,请保护好证据并立即拨打96110报警。
转发提醒!