ブラックフライデー

引き換え

選挙準備に関する最新情報

2024年を通じて、世界中の国々で重要な選挙年となる中、ツールの悪用を防ぐための具体的な措置を講じています。

ElevenLabsでは、どの言語、声、音でもコンテンツをアクセスしやすく魅力的にすることに取り組んでいます。私たちは、技術の力でよりつながりのある情報豊かな世界を創造し、民主的プロセスに貢献することを信じています。私たちは議員の声を取り戻すことを支援し、彼らが有権者や重要な問題のために戦い続けるのを助けています。同様に活動家の努力を支援し、変革を促し生活を改善しています。知識、参加、コミュニティへの障壁を取り除くための私たちの取り組みは始まったばかりです。

私たちは、民主的プロセスを促進するだけでなく、保護することが業界、政府、市民社会、個人の責任であると信じています。2024年を通じて、世界中の国々で重要な選挙年となる中、ツールの悪用を防ぐための具体的な措置を講じています。11月5日の米国選挙に先立ち、私たちの取り組みについての最新情報をお届けします。

ポリシー

私たちは禁止使用ポリシーを改訂し、選挙に関連するツールの使用に関するルールを強化し明確化しました。

  • キャンペーン活動と候補者のなりすましの禁止。特定の候補者、問題、立場を支持または推進することや、投票や寄付を求めることを含む政治キャンペーンにツールを使用することを厳しく禁止しています。また、政治候補者や選出された政府関係者の声を模倣することも禁止しています。
  • 有権者抑制と選挙プロセスの妨害の禁止。有権者抑制や選挙または市民プロセスの妨害を煽動、関与、または促進するためにツールを使用することを禁止しています。これには、誤解を招く情報の作成、配布、または拡散の促進が含まれます。

予防

選挙に関連するツールの悪用を防ぐために、セーフガードを強化しました。

  • ユーザー審査。ボイスクローンツールのすべてのユーザーは、連絡先情報と支払い情報を提供する必要があり、これにより不正行為やリスクの高い地域に関連するアカウントを登録時にブロックできます。
  • 「ノーゴー」ボイス。ノーゴーボイステクノロジーは、何百人もの候補者、選出された役人、他の政治人物、セレブの声を生成することをブロックします。このセーフガードを継続的に拡大し、その効果を高めています。ブロックされた声を生成しようとするユーザーに対しては、監視と執行措置を行っています。

検出と執行

予防措置を補完するために、検出と執行能力を強化しました。

  • 悪用の監視。政治的コンテンツを特定するために設計されたものを含む、改良された独自の分類器、ならびに自動モデレーションと人間のレビュアーが、規約に違反するコンテンツを検出するのを助けます。また、選挙を妨害することを目的とした潜在的な悪用についての洞察を提供する外部の脅威インテリジェンスチームと協力し、政府や業界のパートナーと情報共有チャネルを設けています。
  • 強力な執行。悪用を特定した場合、声の削除、ユーザーの保護観察、プラットフォームからのユーザーの禁止、適切な場合は当局への報告など、決定的な行動を取ります。ElevenLabsから発信された可能性のある問題のあるコンテンツを見つけた場合は、お知らせください
  • 政府の取り組みへの支援。政府の行動が悪用を抑止するために重要であると信じています。7月には、発表しました私たちの支持をProtect Elections from Deceptive AI Act、Amy Klobuchar、Josh Hawley、Chris Coons、Susan Collins、Maria Cantwell、Todd Young、John Hickenlooper、Marsha Blackburn上院議員が主導する超党派の法律で、AIを使用して選挙広告で有権者を欺く悪質な行為者を責任追及するものです。米国および世界中の政策立案者と協力し、選挙に関連するAIセーフティイニシアチブに取り組み続けます。

出所と透明性

AI生成コンテンツの明確な識別を可能にすることは、ElevenLabsの責任ある開発努力の重要な側面です。

  • AIスピーチ分類器。私たちのAIスピーチ分類器は、2023年6月から一般に公開されており、誰でもオーディオサンプルをアップロードしてElevenLabsからのものであるかどうかを分析できます。このツールを公開することで、オーディオの出所を特定しやすくし、誤情報の拡散を制限することを目指しています。
  • 業界との協力。AIコンテンツの出所と透明性に関しては、業界全体の取り組みが必要です。 そのため、私たちはContent Authenticity Initiative (CAI)に参加しており、主要なメディアとテクノロジー企業が出所の基準を開発するために団結しています。Coalition for Content Provenance and Authenticity (C2PA)を通じて、これらの基準を実装し、プラットフォームで生成されたオーディオに暗号署名されたメタデータを埋め込んでいます。これにより、CAIのツールを採用するコンテンツ配信チャネル(主要なSNSプラットフォームなど)が私たちのオーディオをAI生成として認識できるようにしています。
  • サードパーティ検出ツールのサポート。 AI生成コンテンツ、特に選挙関連のディープフェイクを識別するためのツールを改善するために、サードパーティのAIセーフティ企業と協力しています。7月には、提携しました Reality Defenderと—ディープフェイク検出に特化したサイバーセキュリティ企業—モデルとデータへのアクセスを提供し、検出ツールを強化しました。この提携により、Reality Defenderのクライアント(政府や大企業を含む)がリアルタイムでAI生成の脅威を検出し、世界中の人々を誤情報や高度な詐欺から守ることができます。また、UCバークレー情報学部の研究プロジェクトを含む他の学術および商業プロジェクトにも関与しています。

今後数日および数週間で、これらのセーフガードを学び、洗練させ続けます。ツールがどのように使用されるかをすべて予見することはできませんが、悪用を防ぐために強力な行動を取り続け、よりつながりのある情報豊かな世界を創造するために技術を展開します。

ElevenLabsチームによる記事をもっと見る

ElevenLabs

最高品質のAIオーディオで制作を

無料で始める

すでにアカウントをお持ちですか? ログイン