跳到内容

关于我们应对选举的最新进展

2024 年是全球多国关键的选举年,我们已采取多项具体措施,防止工具被滥用

在 ElevenLabs,我们致力于让内容在任何语言、音色和声音中都能被轻松获取和理解。我们坚信技术能够让世界更加互联和信息透明,也能为民主进程带来积极影响。我们已帮助立法者重新掌控自己的声音,继续为选民和重要议题发声。我们也同样支持倡导者推动变革、改善生活。我们消除知识、参与和社区壁垒的工作才刚刚开始。

我们也认为,行业、政府、社会和个人都应共同推动并保护民主进程。2024 年期间,全球多国迎来关键选举年,我们已采取多项具体措施,防止工具被滥用。美国 11 月 5 日大选前,现将我们的相关工作进展汇报如下。

政策

我们已更新禁止用途政策,进一步明确和强化工具在选举场景下的使用规则。

  • 禁止竞选宣传及冒充候选人。我们严禁将工具用于政治竞选宣传,包括为特定候选人、议题或立场造势,或拉票、筹款等行为。也禁止用工具模仿政治候选人及在任政府官员的声音。
  • 禁止选民压制及干扰选举流程。我们禁止用工具煽动、参与或协助选民压制及其他干扰选举或公民流程的行为,包括制作、传播或协助传播误导性信息。

防护措施

我们已加强防护,防止工具在选举场景下被滥用。

  • 用户筛查。所有语音克隆工具用户需提供联系方式和支付信息,便于我们在注册时拦截与欺诈活动或高风险地区相关的账户。
  • “禁用”声音。我们的禁用声音技术可阻止数百位候选人、在任官员、其他政治人物及名人的声音被生成。我们持续扩展该防护措施,并监控、处理试图生成被禁声音的用户。

检测与执法

为配合防护措施,我们已大幅提升检测和执法能力。

  • 滥用监控。 我们升级了专有分类器,包括专门识别政治内容的模型,结合自动审核和人工审核,帮助检测违反条款的内容。我们还与外部威胁情报团队合作,获取针对选举干扰的潜在滥用情报,并与政府和行业伙伴建立信息共享渠道。
  • 严格执法。 发现滥用时,我们会果断处理,包括移除声音、限制用户、封禁账户,必要时还会向相关部门报告。如发现疑似来自 ElevenLabs 的有害内容,请告知我们.
  • 支持政府行动。我们认为政府行动对遏制滥用至关重要。7 月,我们很荣幸宣布支持《防止 AI 欺骗选举法案》,该法案由 Amy Klobuchar、Josh Hawley、Chris Coons、Susan Collins、Maria Cantwell、Todd Young、John Hickenlooper 和 Marsha Blackburn 等多位参议员共同推动,旨在追责利用 AI 在竞选广告中误导选民的不法分子。我们将继续与美国及全球政策制定者合作,推进 AI 安全相关举措,包括选举相关工作。

溯源与透明

让 AI 生成内容被清晰识别,包括广泛合作,是 ElevenLabs 负责任开发的重要方向。

  • AI 语音分类器。我们的AI 语音分类器2023 年 6 月起已向公众开放,任何人都可上传音频样本,分析其是否来自 ElevenLabs。公开该工具旨在让音频来源更易识别,从而减少虚假信息传播。
  • 行业协作。在 AI 内容溯源和透明方面,行业协作不可或缺。 因此我们加入了内容真实性倡议(CAI),该组织联合主流媒体和科技公司制定溯源标准。通过内容溯源与真实性联盟(C2PA),我们将这些标准应用于平台生成音频,在音频中嵌入加密签名元数据。这样,采用 CAI 工具的内容分发渠道(如主流社交平台)即可识别我们的音频为 AI 生成。
  • 支持第三方检测工具。 我们与第三方 AI 安全公司合作,提升其识别 AI 生成内容(包括选举相关深度伪造)的能力。7 月,我们合作Reality Defender——一家专注深度伪造检测的网络安全公司,向其开放模型和数据,助力其检测工具升级。我们的合作帮助 Reality Defender 的政府及大型企业客户实时检测 AI 生成威胁,保护全球用户免受虚假信息和复杂欺诈侵害。我们还参与了其他学术和商业项目,包括加州大学伯克利分校信息学院的研究,推动 AI 内容检测发展。

未来一段时间,我们将持续学习并完善这些防护措施。我们知道无法预见所有工具的使用方式,但会持续采取有力措施防止滥用,同时用技术助力世界更紧密、更透明。

查看更多 ElevenLabs 团队的文章

用高质量 AI 音频创作