跳到内容

安全

AI 音频旨在激发更多可能和积极影响,始终以责任和防护措施为指导,防止被滥用。

我们的安全使命

ElevenLabs 深信 AI 音频带来巨大价值。我们的技术已被数百万个人和数千家企业使用,让内容和信息触达原本难以覆盖的受众,打造有趣的教育工具,赋能沉浸式娱乐体验,帮助因意外或疾病失语的人重获声音,等等。

和所有变革性技术一样,我们也认识到技术被滥用时可能带来风险。因此,我们致力于防止模型和产品被滥用,尤其是用于欺骗或利用他人。安全原则贯穿日常工作,并落实为多层防护措施,预防和应对滥用。

“AI 安全与 ElevenLabs 的创新密不可分。确保系统安全开发、部署和使用始终是我们战略核心。”

Mati Staniszewski

Mati Staniszewski

Co-founder at ElevenLabs

“AI 生成内容的数量会持续增长。我们希望提供所需的透明度,帮助验证数字内容的来源。”

Piotr Dąbkowski

Piotr Dąbkowski

Co-founder at ElevenLabs

我们的安全原则

我们的安全项目遵循以下原则:

Foreground

我们的防护措施

我们努力让恶意用户滥用工具的难度最大化,同时为合规用户提供流畅体验。我们也清楚,任何安全系统都不可能百分百完美,有时防护措施可能误拦正常用户,或未能及时发现恶意行为。

我们部署了多层防护体系,形成全面防线。即使一层被绕过,后续层级仍可拦截滥用。安全机制会持续升级,以适应模型、产品和对抗手段的变化。

告知

我们采用 C2PA 等第三方标准,并支持外部提升深度伪造检测工具的努力。已公开发布业内领先的 AI 音频分类器,帮助他人判断内容是否由 ElevenLabs 生成。

执行

违反禁止使用政策的用户将受到相应处理,包括对屡次或严重违规者的封禁。涉及犯罪或其他违法行为的,将移交执法机关。

检测

我们持续监控平台是否有违反禁止使用政策的行为,结合 AI 分类器、人工审核和内部调查。也与外部机构合作,获取潜在滥用信息,并建立了公众举报机制。

预防

我们在模型发布前进行红队测试,用户注册时也会审核。产品内还集成多项防护功能,包括禁止克隆名人及高风险声音,并要求技术验证后才能使用专业语音克隆工具。

安全合作计划

我们支持头部机构开发实时检测深度伪造的技术方案。

举报内容

如发现有问题的内容,并认为是通过我们的工具生成,请在此举报。

禁止内容与用途政策

了解使用我们工具时禁止的内容类型和行为。

ElevenLabs AI 语音分类器

AI 语音分类器可检测音频片段是否由 ElevenLabs 生成。

内容来源与真实性联盟

开放技术标准,可追溯媒体来源。

内容真实性倡议

推动内容真实性与来源的开放行业标准落地。

常见问题

最逼真的语音 AI 平台