海报新闻评论员 刘瑞琪
近日,有关张文宏“被带货”的视频在网络上流传,视频中有着“张文宏”长相和声音的主体推销着一款蛋白棒,然而这段视频实为AI合成,张文宏本人对此表示既愤怒又无奈。随后腾讯官方平台从速从严打击了一批利用AI技术仿冒名人进行不当营销、恶意博取流量的违规行为,并针对相关情况开展专项治理。
AI技术的发展,使得图像、视频等数据内容更加容易被造假,也使得观看者更难分辨其真伪。对于有辨别能力的年轻人来说,仔细看或许可以看出端倪,但是对于一些不熟悉AI合成技术的中老年人,此类视频足以以假乱真。上海市消保委对该事件严厉发声,表示未经当事人授权的AI合成带货行为已经构成了对消费者的欺诈。这不仅涉及消费者权益,还涉及公众人物的社会公信力,更破坏了互联网的诚信体系。
据《2024人工智能安全报告》显示,2023年基于AI的深度伪造欺诈暴增了3000%,在这些通过技术手段冒充名人的骗局中,有的利用合成视频直接骗取老年人钱财,有的盗用其形象进行违规虚假代言,甚至还有利用已经过世的名人来带货……在AI技术面前,眼见也不一定为实,合成的虚假视频内容成为了心术不正之人的造谣诈骗工具。这不禁令人思考,在互联网传播的众多信息中,我们如何辨别和信任眼前的内容?
目前AI合成相关规范的约束与监管还需进一步完善,但从现在的法律出发,此种行为已经涉嫌侵犯肖像权和名誉权,情节严重的还可能构成诈骗罪和帮助信息网络犯罪活动罪等犯罪,可以进行更严肃的追究,使造假者依法受到应有的处罚,避免出现张文宏所说“多次向平台投诉但屡禁不绝、报警也找不到人”的情况出现。同时,平台也应对此类AI合成造假的作品,增加技术上和制度上的把控手段,对违规账号进行依法从重处罚,避免此类招摇行骗的内容泛滥横行。
今年9月,国家网信办已经发布《人工智能生成合成内容标识办法(征求意见稿)》,要求从视频制作和发布的源头做好信息管理。期待随着《人工智能生成合成内容标识办法》正式落地,能为社会和公众带来一个更加健康、透明和负责任的AI应用环境。
来源:海报新闻