工联网消息(IItime) 据央视网消息,我国AI换脸诈骗检测与预警技术正在测试中。
工业和信息化部反诈工作专班专家李坤表示:“我们正在会同行业内的手机终端企业,将推出AI换脸诈骗风险提醒功能,这项功能仅在手机端来本地运行,能够有效保护用户数据不泄露。经过用户授权后,可为用户提供AI换脸诈骗风险预警提醒。”
随着AI技术的不断发展,AI换脸诈骗案例时有发生。例如,一些不法分子利用AI换脸技术冒充亲友进行诈骗,让受害者防不胜防。他们通过获取受害者亲友的社交网络照片和视频,合成逼真的换脸内容,编造紧急情况向受害者借钱,受害者往往因为情感因素和对亲友的信任而上当受骗。近日,四川攀枝花市民王先生突然收到“外甥”添加微信好友请求,称想借钱周转,骗子为取得王先生信任,利用“AI换脸”技术发起视频通话。2024年1月,一家跨国公司香港分公司的财务人员收到受邀参加总部首席财务官发起的“多人视频会议”,并按照要求先后转账多次,将2亿港元分别转账15次,转到5个本地银行账户内,据香港媒体报道,诈骗分子是利用了人工智能的深度伪造技术,从国外视听网站YouTube上下载了视频,模仿了公司高层人员的声音再对受害者发出行动指示。
AI换脸诈骗不仅给个人带来了经济损失,也对社会信任体系造成了严重冲击。在这样的背景下,我国AI换脸诈骗检测与预警技术的测试显得尤为重要。
在这样的背景下,我国AI换脸诈骗检测与预警技术的测试显得尤为重要。可以增强公众防范意识,降低被骗几率;保障用户数据安全,防止了未经许可的数据访问和使用;利于打击AI换脸诈骗犯罪,一旦发生诈骗案件,可快速锁定犯罪嫌疑人使用的技术和来源渠道,协助破案;推动AI技术合规、有序发展,该功能的推广和应用,也促使相关部门不断完善相关法律法规,加强对AI换脸等深度合成技术的监管和管理,保障公众的合法权益和安全;提升用户体验,增强手机终端竞争力。
然而,技术的应用只是防范诈骗的一个方面。加强公众的防范意识同样不可或缺。相关部门应通过多种渠道,如社交媒体、公益广告、社区宣传等,向大众普及AI换脸诈骗的手段和特点,提高公众的识别能力。
这项技术的推出,无疑为防范此类诈骗提供了新的利器,相信在多方的共同努力下,我们能够有效遏制AI换脸诈骗的蔓延,为公众营造一个更加安全、可信的网络环境。