中国财经新闻网

您现在的位置是:首页 > 财经热点 > 正文

财经热点

警惕AI“深度伪造”接陌生电话时建议先“变声”

视频   伪造   诈骗   深度   警惕  
财经网 2023-10-29财经热点
警惕AI“深度伪造”接陌生电话时建议先“变声”专家:人体生物特征易被“移花接木” 电话、视频聊天时需加强防范与甄别“以前我们说‘眼见为实’,但随着技术发展……

接听陌生人电话时,建议先“变声”

专家:人体生物特征易被复制,通话视频聊天需加强防范筛查

“过去我们说‘眼见为实’,但随着科技的发展,犯罪分子的技术手段也在更新,制造出‘假人说谎’,有时防不胜防。我们必须付出代价。”注意识别和预防。” 近日,在深圳举行的世界数字城市大会“生物识别技术应用论坛”上,国家特聘专家陈友斌教授接受本报全媒体记者专访时表示:“人脸识别技术已落地在各种应用中,由此带来的个人隐私泄露等问题也日益突出,人脸识别技术应用的安全管理势在必行。”

文图/广州日报全媒体记者冯秋雨(签名除外)

AI换脸、语音合成

“朋友”假装真实骗钱

“现在,社会生活中的很多业务都可以在网上进行,包括开户、开卡、理财、信贷等金融方面; 办理社保、修改密码、庭审、办案等民生方面; 谈判、签约、公证等商务方面等等,但你有没有想过,出现在屏幕上的人是否真的是你认为的那个人? 在人工智能时代,这是需要特别警惕的一点。”陈友斌说。

不久前,包头警方通报了一起利用人工智能诈骗的案件:福州某公司法定代表人郭先生在10分钟内被骗430万元。 报道称,郭先生的一位“朋友”突然通过微信视频联系他,称他的一位客户朋友在外地竞拍,需要430万元保证金,需要进行公对公转账。 他想向郭先生的公司借钱。 账户转账。 基于对朋友的信任,且已通过视频聊天验证身份,郭先生未经核实,直接将430万元分两期转入对方指定银行卡。 随后,郭先生给朋友打电话才发现自己被骗了。 原来,犯罪分子利用智能AI换脸和拟声词技术冒充朋友,对其进行诈骗。 “犯罪分子利用可视对讲模拟受害人朋友的声音,看似是同一个人,声音也是他的,但实际上根本不是他的朋友。” 陈友斌说道。

无独有偶,2022年2月,一名陈先生到派出所报案,称自己被“朋友”诈骗近5万元。 经警方核实,诈骗分子利用陈先生的一位好友在社交平台上发布的视频,截取其面部图像,然后利用“AI换脸”进行合成,制造出陈先生是视频的假象。与“朋友”聊天,骗取其信任,从而实施诈骗行为。

今年10月7日,国家金融监督管理总局北京监管局发布风险提示称,部分不法分子非法获取个人信息,利用计算机算法模拟合成亲属、同事或他人的肖像、人脸、声音等。公职人员受骗,并冒充上述人员。 身份欺诈; 获得受害人信任后,利用预先准备好的套路,向受害人发送银行卡转账、虚拟投资理财、账单返利等诈骗信息,并利用视频通话、语音轰炸等手段,进一步减少受害人的受害人数量。由于警惕性较高,往往很难在短时间内发现异常情况。 一旦他们接受了骗子的伎俩,完成了转账,对方就没有任何消息了。

AIGC数字人? 自然人?

人类生物识别技术可能被“深度伪造”

“犯罪分子利用AI换脸、拟声词技术冒充熟人实施诈骗。” 陈友斌表示,我国在人脸识别应用方面位居世界前列,因此人脸识别的风险和隐私保护必须引起重视。

“镜头前的人,是一个真正的自然人吗?这个人是真实的吗?文件是否真实?证人是否一致?需要远程验证方法。” 陈友斌介绍,出现在伪造图像或虚假视频中,借助AI技术生成或伪造的人被称为“AIGC数字人”。 它可以是现实世界中不存在的人,也可以是现实世界中确实存在的人的赝品。 “自然人”是出现在真实图像或真实视频中、存在于现实世界中的人。

据了解,目前广州、深圳两地有数千家生产、销售虚拟数字人的企业。 AI技术创造的“数字人”具有高度逼真的外观和自然语言交互能力,可以与用户进行实时对话。 互动性,甚至达到了“不仔细看就看不见”的真实程度。

作为多年从事图像识别和人工智能研究的专家,陈友斌提醒:“人脸、声纹、指纹、虹膜、签名等是最常用的人体生物特征识别。即使是自然人,此时此刻他本人到底是在那个地方,还是别人嫁接把他粘在那里?也需要鉴定。”

陈友斌表示,与传统技术相比,“AI换脸”的破坏力不仅在于“伪造”,更在于“深度”。 “诈骗者一般首先对公众在互联网上发布的各类信息,包括社交媒体上的个人数据、工作信息、人际关系等进行大数据分析,研究其日常习惯、工作习惯、资产状况等然后,结合要实施的欺骗行为,利用人工智能技术对人群进行筛选,从而确定实施诈骗的目标人群,锁定诈骗目标。

谨防声纹诈骗

接听陌生人电话时“先变声再说话”

陈友斌介绍,“Deep Fake”是一种基于深度学习的多媒体篡改合成技术,主要包括图像、语音、视频和文本的伪造和篡改。 它可以在视频通话和视频会议中模仿目标人。 去欺骗另一个人。 “深度造假发展得非常快。 这项技术首先在好莱坞被用来模拟现实中无法拍摄的部分。 后来被不法分子用来实现人脸图片的嘴巴动、眼睛眨等功能。 有很多可以动头和头、换脸等的模型,现在这样的模型有很多。

他告诉记者,这种深度伪造技术可以在不改变身份的情况下改变人脸的年龄、性别、种族,并对嘴巴或表情进行操控; 还可以用于迁移、交换、叠加人脸等,采用“换脸换表情”、“换脸不换表情”等方式组合来改变身份。 “实时交互深度换脸将合成映射到当前时刻,针对实时交互应用场景,例如在线会议中使用虚假身份窃取信息或扰乱秩序,或者在视频通话中模仿目标人物欺骗用户另一端。 等待。”

陈友斌提醒:特别需要注意的是,通过提取“声纹”也可以伪造语音信息。 什么是“声纹”? 陈友斌介绍,人类语言的生成是人类语言中枢与发声器官之间复杂的生理物理过程。 发声器官——舌头、牙齿、喉、肺、鼻腔——因人而异的大小和形状都有很大差异,因此任何两个人的声纹模式都有差异。 如今,大家经常会接到很多陌生人打来的广告电话。 殊不知,在与陌生人交谈的过程中,自己的声纹在不知不觉中被泄露。

“犯罪分子可能会通过不同的人给你打电话,轮流‘轰炸’。也许他们的目的根本不是为了出卖你,而是为了获取你的声纹、生活习惯和社会关系,然后实施诈骗。” 陈友斌介绍,语音通话时长会影响声纹识别的准确性。 有效语音持续时间越长,算法获得的数据越多,准确率越高。 因此,他提醒:“对人工智能技术不熟悉的老年人尤其需要警惕,包括年轻人。接到陌生电话时不要过多说话,真正需要说话的时候,可以捂住鼻子,改变你的声音与他说话,否则经过一段时间的数据学习,犯罪分子可能会利用你的声纹信息和说话习惯来合成你的声音,用你的脸代替,在你的社交网络上实施诈骗。”

警惕AI伪造的“线索”

多渠道确认不要轻信视频内容

如何防范人工智能深度造假诈骗? 陈友斌提醒道:“如果这个人跟你很熟悉,你跟他多接触几次就能发现问题。” 据了解,以银行业务为例,需要图像、语音、自然语言处理加上交互对话的完整金融服务,将风险降到最低。 普通人也可以通过多种验证手段发现AI深度伪造的“线索”。

他介绍,由于人脸合成的素材大多采用睁眼的照片,因此“不眨眼”可以算是合成视频的“特征”之一。 此外,合成视频还可能存在口型、发音、情绪不同步的情况。 不一致、不自然或不连贯、牙齿和嘴唇纹理不清晰、耳朵不对称等。虽然AI拟声词和AI换脸假电话可以逼真地模仿原作人物的语言和行为,但它们仍然充满缺陷,例如眨眼频率低、眼球运动不协调、面部表情不自然、句子不连贯等等——这些都是“数字人”的特征。 以下预防提示更容易记住:“回电话再确认,不要轻易相信视频;记得问私人问题,不能回答就不要相信;眨眼可以暴露AI的真面目,所以在关键时刻经常使用它。”

据悉,国家网信办8月8日发布的《人脸识别技术应用安全管理规定(试行)(征求意见稿)》也对公共场所、营业场所、可能侵权的场所提出了要求。关于他人的隐私。 有关部门还提醒:要增强信息保护意识,尤其要警惕需要录入个人信息的非正规软件; 在开启“位置服务”、输入身份证号码或输入“人脸识别信息”、“指纹识别信息”等个人生物识别信息时,您必须谨慎使用信息; 如您发现某个APP过度或强制收集个人信息,应及时向有关部门举报。 另外,正确设置个人社交账号的浏览权限,不要过度披露或分享涉及个人信息的动画、视频等,对不明平台发送的链接要提高警惕,不要轻易启用与陌生人的手机屏幕共享。

《广州日报》2023年10月29日A5版