安全
AI 音频旨在激发更多可能和积极影响,始终以责任和防护措施为指导,防止被滥用。
我们的安全使命
ElevenLabs 深信 AI 音频带来巨大价值。我们的技术已被数百万个人和数千家企业使用,让内容和信息触达原本难以覆盖的受众,打造有趣的教育工具,赋能沉浸式娱乐体验,帮助因意外或疾病失语的人重获声音,等等。
和所有变革性技术一样,我们也认识到技术被滥用时可能带来风险。因此,我们致力于防止模型和产品被滥用,尤其是用于欺骗或利用他人。安全原则贯穿日常工作,并落实为多层防护措施,预防和应对滥用。
“AI 安全与 ElevenLabs 的创新密不可分。确保系统安全开发、部署和使用始终是我们战略核心。”

Mati Staniszewski
Co-founder at ElevenLabs
“AI 生成内容的数量会持续增长。我们希望提供所需的透明度,帮助验证数字内容的来源。”

Piotr Dąbkowski
Co-founder at ElevenLabs
我们的安全原则
我们的安全项目遵循以下原则:
我们的防护措施
我们努力让恶意用户滥用工具的难度最大化,同时为合规用户提供流畅体验。我们也清楚,任何安全系统都不可能百分百完美,有时防护措施可能误拦正常用户,或未能及时发现恶意行为。
我们部署了多层防护体系,形成全面防线。即使一层被绕过,后续层级仍可拦截滥用。安全机制会持续升级,以适应模型、产品和对抗手段的变化。
告知
我们采用 C2PA 等第三方标准,并支持外部提升深度伪造检测工具的努力。已公开发布业内领先的 AI 音频分类器,帮助他人判断内容是否由 ElevenLabs 生成。
执行
违反禁止使用政策的用户将受到相应处理,包括对屡次或严重违规者的封禁。涉及犯罪或其他违法行为的,将移交执法机关。
检测
我们持续监控平台是否有违反禁止使用政策的行为,结合 AI 分类器、人工审核和内部调查。也与外部机构合作,获取潜在滥用信息,并建立了公众举报机制。
预防
我们在模型发布前进行红队测试,用户注册时也会审核。产品内还集成多项防护功能,包括禁止克隆名人及高风险声音,并要求技术验证后才能使用专业语音克隆工具。