
ElevenLabs 与 Reality Defender 合作推进 AI 安全举措
- 分类
- 安全
- 日期
2024 年,全球将举行多场选举。随着选举临近,我们专注于推动 AI 语音.
我们的技术源于打破语言障碍、促进全球理解的承诺。如今已广泛应用于教育、娱乐和无障碍领域,同时让内容更具吸引力和包容性。
我们也认识到 AI 技术环境的变化及其对政治进程的影响。确保系统安全开发、部署和使用始终是我们的首要任务。随着技术发展,我们也在采取更多措施防止滥用和虚假信息传播。
为保障所有用户的良好体验,我们正采取具体措施,防止 AI 语音被用于传播虚假信息。虽然我们的条款已禁止冒充他人或造成伤害,但我们还新增了 “禁用声音” 保护机制。该机制可检测并阻止模仿正在参与总统或首相选举的候选人声音的创建,首先覆盖美国和英国。我们正努力将此机制扩展到其他语言和选举周期,并通过实际测试和反馈不断优化。欢迎其他 AI 公司和合作伙伴与我们共同探索更有效的保护措施。
我们也在积极测试新方法,防止生成可能影响民主参与或误导选民的政治内容。我们的系统始终可以追溯平台上生成的内容来源账户。我们正在开发新的审核和内部评估机制,更有效地识别和处理滥用行为。歪曲选举流程、选民资格或投票价值会破坏民主,我们坚决反对利用 AI 制造混淆或不信任。将我们的技术用于冒充他人、创建聊天机器人或自动拨号等政治宣传活动,均属直接违反我们的条款。
让 AI 生成内容易于识别,是我们负责任开发的重要一环。
去年 6 月,我们发布了 AI 语音分类器,任何人都可以上传音频样本,分析其是否为 ElevenLabs 生成的 AI 音频。我们的目标是让音频内容来源更易判断,帮助防止虚假信息传播。如有合作或集成需求,欢迎通过 legal@elevenlabs.io 联系我们。如在平台上发现可疑内容,或认为内容来自本平台,请 在此反馈.
我们很高兴看到社区不断发掘技术的积极应用。2024 年及未来,我们将继续与社区、合作伙伴、社会组织和相关方保持沟通,致力于负责任的创新。



