位置: 首页 >资讯 > > 正文
AI诈骗防不胜防 多渠道核实信息是关键

2023-05-31 08:30:01     来源:金陵晚报


【资料图】

□金陵晚报/紫金山新闻记者 朱静

通讯员 鼓公宣 王静宇

近日,“AI诈骗”的话题被广大市民频频提起,从传统冒充客服、冒充公检法身份进行诈骗,到如今利用AI拟声技术模仿好友声音诈骗,信息技术在不断升级,骗术也在不断更新换代。由于AI诈骗具有极强的迷惑性,受害人一旦疏忽大意,就会跌入圈套中。

李先生近日接到好友“梁某”的语音聊天邀请。两人在电话中先是寒暄了一阵,接着“梁某”称,自己最近需要还当月信用卡,但是手头钱不够,想从李先生这里借8000元周转一下,等发工资就还给李先生。李先生当时想了一下,微信号确实是梁某的微信号,而且梁某是通过语音电话和自己联系的,声音也是梁某的声音,应该不会有问题,

念及和对方多年的好友情谊,李先生便向对方转账8000元。谁知,转完账后李先生再联系“梁某”时,发现自己竟然被对方拉黑。李先生觉得很不可思议,便立即拨通梁某的手机号码询问情况,得知梁某由于点开了一个陌生链接导致微信被盗号。李先生这才反应过来,向自己借款的并非梁某本人。发现被骗后,李某迅速向公安机关报警。

李先生遭遇的,就是一起利用AI拟声技术佯装好友实施的诈骗。犯罪分子先是利用发送陌生链接的方式盗取梁某的微信账号,随后对其社交软件排查分析,掌握梁某和李先生存在多年好友关系的事实,再利用AI拟声技术模仿梁某的声音和李某进行通话,使李先生放松警惕从而转账汇款。

警方表示,当前人工智能、大数据等热点技术已被犯罪分子用于实施诈骗。利用AI技术可以模拟成身边熟人的脸和声音,然后打语音电话甚至视频聊天借钱。

在这起案件中,梁某的声音又是如何被获取的呢?原来犯罪分子通过骚扰电话录音或从社交媒体截取视频等方式提取声音,在获取声音素材后,利用AI语音生成器进行声音合成,生成独特的原始音频,可以近乎完美地模仿任何人的声音,而这一切操作都非常简单,短短几秒就可以完成。所以,任何人上传到社交媒体上的声音文件,或者和骚扰电话进行交流后的录音,都有可能成为犯罪分子实施诈骗的“素材”,令人防不胜防。

民警提醒,与其他类型的电信网络诈骗相比,AI诈骗迷惑性更强,辨识更困难,如果发现以下迹象,需提高警惕:朋友突然以陌生号码或者不常用的聊天方式进行联系;急需用钱,借大笔资金;要求保密,不要告诉其他亲戚朋友。

警方提示:请注意保护好个人身份信息,尽量避免在公众平台过度公开自己的照片、音频、视频等,以防被犯罪分子获取而实施诈骗;凡遇到亲友、熟人、领导等通过微信、电话要求将大额钱款转账的,很重要的一点就是尽量选择面对面或利用其他联系方式多渠道交叉验证,确认核实对方身份;陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑上的社交软件被盗号,若发现被盗应及时找回;提高安全防范意识,下载国家反诈APP等防诈骗软件,辅助识别诈骗信息。若不慎被骗,请第一时间保留证据并拨打96110求助。

标签:

上一篇:5月30日基金净值:易方达中证科创创业50ETF最新净值0.575,涨0.7%
下一篇:最后一页
相关内容

美容

护肤

prev next