AI“分身”频现:如何系好“安全绳”?

摘要:技术越先进,权利边界不能越模糊。
杭州网
浏览量
作者:王佳怡
全文931个字 阅读约需 分钟

近日,两起相似事件引发热议:演员温峥嵘公开曝光自己的数字形象被盗用,在直播间推销产品;热播剧《新闻女王2》里,主播文慧心离职后,其前公司继续使用她的AI合成形象播报新闻。从剧情到现实,AI技术正在模糊真实与虚拟的界限,也迫使我们思考:当“数字分身”可以脱离本人独立活动,我们该如何守住人与数据的边界?

技术越先进,权利边界不能越模糊。无论是温峥嵘的遭遇还是文慧心的剧情,都指向同一个问题:AI技术正在重新定义人格权的内涵。传统的肖像权保护面对的不再是简单的图片盗用,而是动态的、交互式的、可规模化生产的“数字人”。这种“分身”无需本人参与就能持续产生内容,但创造的价值却未必归于本人。更令人担忧的是,当这种技术门槛持续降低,每个人都可能面临被数字化“复制”的风险——你的脸可能出现在你从未同意的广告中,你的声音可能说着你从未说过的话。这不仅是个人权利的危机,更是社会信任基石的松动。

法律在追赶,必须赶上技术“狂飙”。当前,我国已有《中华人民共和国民法典》《生成式人工智能服务管理暂行办法》等法律法规,构建了基础保护框架。然而在实际维权中,受害者往往面临“三难”:侵权内容发现难、技术溯源难、举证维权难。平台审核常滞后于内容传播速度,违法成本与技术带来的暴利不成正比。《新闻女王2》的剧情之所以引发共鸣,正是因为它揭示了现有机制在面对技术滥用时的无力感——当你的“数字分身”在你不知情的情况下持续工作,你该如何证明“你不是你”?

系好“安全绳”需要一场系统治理。应对这一挑战,需要技术、规则与意识的协同推进。技术上,必须建立强制性的数字水印和来源标识体系,让AI生成内容“自带身份证”;在法律上,需明确“数字分身”的权属规则,加大对恶意侵权者的惩处力度,降低维权门槛;在社会层面,则要培养公众的数字权利意识,让每个人都知道自己有权对未经授权的“数字分身”说“不”。平台企业更应承担主体责任,建立更有效的侵权预警和处置机制。

技术的发展最终服务于人的福祉。在人工智能塑造数字“分身”愈发便捷的今天,唯有筑牢法治堤坝、压实平台责任、提升公众权利意识,让技术创新行驶在尊重人格尊严与合法权益的轨道上,我们才能驾驭技术而非被技术掌控,真正拥抱一个既智能高效又可信安全的数字未来。