生成式人工智能侵害声音权益的可识别性判断方案

  • 打印
  • 收藏
收藏成功


打开文本图片集

一、问题的提出

利用生成式人工智能侵害自然人声音权益[1]的案件已经浮现,但实践中存在争议。周某与A公司、B公司人格权纠纷案(以下简称“晓萱案”)涉及名为“晓萱”的文字转语音产品,原告的声音未经许可被用于训练、制造人工智能语音生成产品,此为首例人工智能声音侵权案。2]2025年7月,浙江省杭州市滨江区人民法院审理了一起类似案件(以下简称“梦珑案”),原告在职期间录制音频,在离职后得知自己的声音被用于人工智能语音生成服务,供虚拟角色“梦珑”使用。(剩余14805字)

monitor
客服机器人