谨防AI技术击穿安全底线,有必要出台法律、明确监管框架
2023/5/24 9:25:58

近日,包头警方发布一起利用AI实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。AI既可以换脸还可以拟声,逼真到视频聊天也看不出破绽,“仿真”程度足以以假乱真,这让不少人“细思极恐”。

此前,在多个省份都有类似案例。骗子往往通过有偿收购等手段获取他人音频素材等基础“物料”,利用AI技术合成声线、“活化”照片,然后“骗过”验证、登录他人社交平台并联系“好友”诈骗获利。深度合成技术正瓦解“眼见为实”的信任逻辑,一张正脸静态照片,在经过“活化”处理之后,可以呈现出丰富表情、生成流畅视频。同样,经处理后声音也可呈现真人音效,足以以假乱真。

目前,深度合成应用正呈现出指数级增长,一些滥用该技术的行为正带来肉眼可见的伦理和治理问题。除了用AI换脸假装好友诈骗,还有人用它来制作他人不雅视频、冒充明星带货等等。在支付场景日益丰富的当前,人们的面部、声音、指纹、虹膜等生物信息的使用越来越广泛,隐私泄露等风险隐患点也随之增多。同时,人工智能的深度学习和算法越来越先进,其处理过的音频日益逼近真人,恰如那句网络流行语:你永远不知道网络的对面是一个人还是一条狗。如果不对此类技术加以限制,AI技术不仅容易威胁到他人财产安全、伤害个人尊严和隐私,还可能会构成较大社会危害。

英国科幻剧《黑镜》通过若干小故事带领观众思考未来数字化生存的挑战,探讨了数字化生存危机,指出“科技至上”和技术专制的尽头或许是不测深渊。要防止坠入技术滥用的深渊,当然要靠公众提升防护意识、避免网络“踩坑”,不过在技术优势面前,自我防护效果有限,人们总有意识松懈麻痹时。因而,要求公众有不“踩坑”的意识之外,更需要相关部门和企业积极引导技术向善,完善风险治理体系,从而帮助公众堵上高技术诈骗这个漏洞。

面对有可能击穿安全底线的技术风险,有必要出台法律、明确监管框架,给AI技术套上缰绳。当前,AI合成技术还属新生事物,立法和监管应当紧跟实际、甚至具有一定前瞻性。警惕科技“变坏”,关键还在于不能让AI“吃”进过多公众信息,否则这些信息就有可能被大数据技术抓取,让不法分子描摹出精细的用户画像。相关平台要加大力度研发防骗反诈监测系统和应急软件,同时基于自身大数据能力和安全防护能力,对侵权行为及时采取删除、屏蔽、终止交易和服务等必要措施,以科技防骗杜绝科技诈骗。

本文转载目的在于知识分享,版权归原作者和原刊所有。如有侵权,请及时联系我们删除。

展开全文
相关阅读
资讯查询取消