警惕 AI 合成技术成诈骗新手段,保护个人财产安全

aixo 2024-07-31 10:29:30
大模型 2024-07-31 10:29:30

新华社北京7月30日电 7月30日,《新华每日电讯》发表题为《应对科技手法翻新的AI诈骗,也要用技术反制不法》的评论。

接到“弟弟”的借钱电话后转账数万元,被屏幕对面的“好友”骗走数百万元,“多人视频会议”中竟然只有自己是真人……近期,全国各地接连曝光多起电信诈骗案件,其共同特点是诈骗分子利用AI合成技术“换脸”“换声”,这种深度伪造导致受害者“耳听为虚”“眼见也非实”。

当前,诈骗分子得以构建复杂的虚拟场景,通过合成视频、音频增加诈骗的可信度,呈现出AI技术普及、应用多元、身份伪造具体化以及作案模式精准化等特点。

今年某地警方披露的一起案件令人瞠目结舌。一家跨国公司地方分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按要求先后转账多次,将2亿港元分15次转到5个账户内。实际上,那场会议中,除了他自己以外,其余与会人员全部是诈骗团队通过“AI换脸”和“AI换声”伪造的。

近年来,通过AI实现的声音和画面深度伪造技术门槛不断降低,过去诸如影视大片中才能出现的场景,如今只需要在互联网上花费数元购买一个软件就能一键生成。但如果用“放大镜”仔细观察一些AI诈骗案件,则会发现“变声换脸”的AI技术应用,往往只是电信诈骗的最后一环。

隐私信息泄露往往是前置条件。为了获取某个人的声音,不法分子甚至通过拨打骚扰电话进行采集,而后仅通过通话录音,就能伪造出对方的声音。个人在社交平台上展示的影像资料,也让不法分子可以轻松获取个人肖像信息。

尽管电信诈骗工具一直在变,但防范仍是不变的第一要务,防范优于打击。诈骗得手,往往是利用了人性的弱点。诈骗者会利用受害者的恐惧心理、应急状态,冒充领导、公检法人员、亲友等,让被骗者乱了分寸。对普通人来说,应当树立“耳听和眼见不一定为实”的意识,提升破解“障眼法”的能力,一旦遇到“掏腰包”的关键环节就要高度警惕。

在增强个人防范能力的同时,技术防范也同样重要。针对科技手法花样翻新的AI电诈,需要用科技应对科技,用“魔法打败魔法”。

一方面,互联网平台等需要保障公民个人信息尤其是生物特征等敏感信息的安全。另一方面,可以推广数字水印等鉴伪技术,使其帮助检测和揭露被AI篡改的内容。对于重要应用场景中的人脸识别技术,应修补漏洞,防范手机摄像头权限被恶意利用,以技术反制不法行为,将群众与电诈风险进行“无感”隔离。(记者 董雪)

AI