首页 > 社会热点

骗子利用AI声音冒充亲人诈骗(受害人大多是老人)

社会热点 2023-04-02 17:12:15
很多电信诈骗的套路大家都已经比较熟悉了,可惜仍然是防不胜防,现在一些诈骗分子利用AI技术进行犯罪,据外媒报道,一些骗子使用AI语音生成软件模仿受害者亲人的声音,骗取大量的钱财,据统计,在2022年骗子使用AI声音冒充亲人诈骗就已经累计骗走了1100万美元,并且很多受害者大多数都是老年人,简直让人痛恨不已。 

最近这段时间AI人工智能一直是各界讨论的热点话题,现在也有很多产品都使用了人工智能技术,比如使用AI智能来模仿别人的声音,通过识别学习之后就可以模仿出其他人的声音,完全可以以假乱真,这样的技术让人惊叹不已,但同时也引来了一些不法分子的关注,他们利用AI技术收集到被害人家属的声音,然后利用假的声音冒充老人的亲属进行诈骗。 

人工智能语音生成软件需要提前对着软件说几句话,这样软件就可以记住,这个人的声音和语气通过几秒钟的对话就可以达到精准模仿人的那种程度,有受害者表示,当时接电话的时候,骗子的声音跟自己儿子的声音真的是一模一样,根本无法分别,所以这才导致很多老人上当受骗,从外媒公布的数据报告可以看到,有很多受害者都是声称被冒充亲人的骗子所欺骗的。 

这种新型的诈骗手段主要针对的还是老年人,其实这种情况也并不奇怪,因为老年人原本就是金融诈骗,最受关注的弱势群体之一,现在年轻人都在外面工作或者上学,留在家里的都是老人,老人在接到电话的时候听到是自己亲人的声音,难免会相信骗子,从而导致悲剧发生。

Copyright©2022 吾尊时尚 www.wuzunfans.com 版权所有

声明 :本网站尊重并保护知识产权,欢迎各位作者创作优秀作品,根据《信息网络传播权保护条例》,如果我们转载的作品侵犯了您的权利,请在一个月内通知我们,我们会及时删除。闽ICP备11008833号-10  

邮件联系方式: toplearningteam#gmail.com (请将#换成@)