中新社北京6月9日电 (记者刘育英)AI(人工智能)一键换脸、AI克隆声音、AI钓鱼邮件......近日两起诈骗金额上百万元(人民币,下同)的案件引起人们关注。AI技术快速发展,挑战也逐渐显现。


(资料图片)

近日,内蒙古包头警方通报一起利用AI实施诈骗的案件,在这一案件中,福州市某公司法人代表郭先生10分钟内被骗430万元。据通报,骗子通过AI换脸和拟声技术,佯装熟人实施诈骗。

今年4月份,在安徽安庆经开区发生一起AI换脸诈骗,诈骗分子使用一段9秒钟的智能AI换脸视频佯装“熟人”,让受害人放松警惕被骗走245万元。

AI诈骗是利用AI技术,模仿、伪造他人的声音、面孔、视频等信息,进行欺骗、敲诈、勒索等的犯罪活动。早在2019年,华尔街日报就报道过诈骗犯利用深度伪造语音技术冒充英国某能源公司高管诈骗24万余美元。

中国信息通信研究院云计算与大数据研究所内容科技部研究员呼娜英对中新社记者表示,当前,随着深度学习等AI技术的成熟,AI诈骗新手段体现出诈骗手段愈发多样、诈骗门槛大幅降低、辨别难度不断加大等特点。

在网上,高逼真的换脸付费软件价值仅在几百元至几千元之间。

“基于公开发布的数据信息、照片、视频,利用深度合成等AI技术生成高度逼真的图像、视频和语音等内容,这些以假乱真的虚假信息更易取得对方信任,从而使得受害者放松警惕。”赛迪研究院网络安全研究所所长刘权对中新社记者表示。

防范AI诈骗也需要多管齐下,齐抓共治。今年4月,中国国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》向社会公开征求意见,其主旨思想是促进生成式人工智能技术的健康发展和规范应用。

刘权认为,该办法建立了AI服务的管理框架,对生成式人工智能服务提供者和使用者进行了规范化管理,要求提供生成式人工智能产品或服务的企业或个人进行实名认证、信息公示、申报安全评估、履行算法备案和变更、注销备案手续等措施,有助于减少非法个体或组织实施AI诈骗的可能性。

呼娜英表示,2023年1月施行的《互联网信息服务深度合成管理规定》,细化了深度合成技术支持者、服务提供者、服务使用者以及应用程序分发平台的主体责任,规定的落实将有效遏制AI换脸等诈骗事件。

有专家进一步提出,立法部门应加快对AI技术的运用进行立法规制,不妨对人工智能设备和软件的使用和注册进行明确限制,防止“AI”技术的运用“无序化”“无法化”。

奇安信董事长齐向东表示,人工智能技术被传统犯罪分子用来伪造声音、伪造图像、伪造视频、伪造证据,以假乱真,人们很难去甄别。要解决这些挑战,只有靠技术和它进行对抗。

因此相关部门应持续AI反诈技术的研究,提升防范AI欺诈的技术手段,利用机器学习和数据挖掘、区块链等技术加强对AI应用的监管与审查,及时发现和防范违法行为。

此外,还应提高公众反诈意识与防范AI诈骗的能力。中国互联网协会日前也对AI换脸新骗局做出提醒,包括做好个人信息安全第一责任人,加强个人信息保护意识,防止信息泄露:不轻易提供人脸、指纹等个人生物信息给他人等。

治理AI诈骗需要多管齐下。刘权表示,应加强跨部门、跨行业的协同配合,建立联合公安、工信、网信、市场监管部门等政府部门,以及电信企业、通讯软件提供商、银行等企业的工作机制,共同监管和维护网络安全。

推荐内容