所有版权归中国经济网所有。
中国经济网新媒体矩阵
网络广播视听节目许可证(0107190)(京ICP040090)
近日,一名演员遭遇“AI黑客”,同时“出现”在多个直播间带货。演员质疑自己的“替身”,被封杀。这一事件再次引发了公众对于AI(人工智能)的争论。生成式人工智能近年来发展迅速。以前需要专业技能的视频制作,现在可以轻松完成。然而,有些人也滥用了这项技术,导致了一系列的破坏。一些消费者伪造“购物秀”以获取退款,大量虚假名人照片被发布在社交平台上,骗子伪造音频和视频来“追捕”老年人……人工智能本来是表达创造力和提高工作效率的巨大帮助,但现在却面临着成为造假工具的危险。这现象应引起报警。 9月起施行的《人工智能生成的合成内容显示管理办法》明确,人工智能生成的合成内容的显示包括显式显示和隐式显示。显式徽标是用户可以清楚识别的徽标,例如文本或音频形式的徽标。当人工智能内容令人困惑甚至误导时,醒目的徽标可以帮助用户快速做出决策并识别错误信息。隐式标识是指通过技术手段生成的合成内容文件数据中添加的标识。这对于追查假冒内容的来源、保护被侵权者的合法权益极为重要。 《标识办法》实施以来,各大平台纷纷响应,出台多项细则,确保人工智能内容标识清晰,在人工智能内容管理上迈出重要一步。如何然而,一些人工智能内容仍然不包含任何标志,这可能会误导观众。为了进一步遏制人工智能欺诈和破坏,必须建立多层次的治理体系。比如,法律加强保护,进一步明确人工智能诈骗的处罚标准,明确服务商、平台和用户的责任,涵盖多种诈骗情形。建立监管体系,强化监管,开展各类人工智能诈骗专项治理工作,形成多部门协作打击合力。我们将更新技术手段,提高高精度检测能力,准确识别欺诈内容。演员被“配音”的事实只是一个警钟。技术正在迅速发展,治理必须跟上。只有规则、监管和技术同时“打补丁”,才能有效减少人工智能欺诈,降低公众被欺骗的风险。 (授权或者:赵欣怡(来源:经济日报)