侵权诈骗频发,规范AI应用已是当务之急 每日速看
近日,多个电商直播间被爆出使用明星AI换脸直播,引发争议。南都记者留意到,有不少直播间里出现了“明星脸”,还是不同的主播共享同一张明星脸。
不同时段、不同主播同一张“杨幂”脸,她们都在向网友推销某个女装品牌;换一个直播间,网友又看到了“迪丽热巴”在推销茶叶……眼前的明星光彩夺目,但在主播低头、转身时,又会暴露出其实这不过是“换脸”后的结果。
(资料图)
在一般人看来,使用“明星脸”无论如何应该算是高科技了,但实际上专业人士透露:“AI换脸直播对算力的要求会低很多,也不涉及什么大模型,就只是一个面部轮廓,然后中间某些区域的合成。”更让人吃惊的是AI换脸直播的成本。南都记者咨询了一家提供AI换脸直播软件的企业,对方收费仅99元……
不算高端的技术、低廉的费用,意味着使用门槛很低。这一点又会带来什么样的结果,产生什么样的影响?
使用明星AI换脸直播,性质并不模糊。根据法律,直播间未经明星同意,利用深度合成技术使用其肖像制作“AI换脸”行为,对明星来说属于侵权,同时它又涉嫌“故意告知消费者虚假情况或者故意隐瞒真实情况,诱使消费者作出错误意思表示的行为”,已构成欺诈。
随着AI技术的应用越来越广泛、越来越智能化,惹出的事端越来越多了。
最近,“AI孙燕姿”因其翻唱《下雨天》等歌曲走红网络。而且“AI孙燕姿”居然连其“换气声”都可以模仿,一时间“AI出来后第一个失业的是孙燕姿”等话题被推上热搜。
面对AI孙燕姿,尽管孙燕姿本人给予了包容,而且从产业发展的角度,“AI孙燕姿”的出圈宣告人工智能技术对音乐产业有了比较深入的渗透,但是声音权、著作报酬分配权等法律问题注定无法绕过。
如果说使用明星AI换脸直播、“AI孙燕姿”等事件为AI技术应用增加了话题性,那么另外一些事件就让人不寒而栗了。
此前人们或许听说过应用AI技术的声音合成诈骗。声音合成诈骗,骗子会先通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过目标,达成目的。但福州市某科技公司法定代表人郭先生10分钟内被骗430万元,骗术显然要远较声音合成诈骗“高级”,因为对方是通过智能AI换脸技术,佯装成好友对他实施了诈骗。
声音对上了,“脸”也对上了,碰到这样的骗术,谁能抵御?
科技的进步一日千里,但若用之于不善,也会让作恶的效率大幅提升,并且增加人们防范的难度。
面对AI相关的侵权、诈骗事件频发,专家提醒不要轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频。这些提醒是及时的,信息安全意识对每个人都是必需的,但是现代生活的便捷不正是拜技术进步之赐吗?
AI技术改变了公众的生活,也带来了很多挑战。显然,驯化而非拒绝,才是适宜的态度。
4月11日,国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》。其中明确提出,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,不仅要承担该产品生成内容生产者的责任,还要承担个人信息处理者的法定责任,履行个人信息保护义务。
可以看出,《办法》既是对生成式人工智能的规范管理,也凸显了国家对其未来发展的明确支持。只有协调好创新发展和风险防控之间的关系,确保生成式人工智能的行为服务全部处于监管之下,才能使其慢慢步入正轨,行稳致远。
驯服AI技术,法律和伦理规制都要跟上。因为要维系其良好生态,离不开政府监管,也需要企业履责、社会监督和网民自律,任何时候,科技向善的底线都必须坚守。