ElevenLabsは、あらゆる言語、声、サウンドに関して、アクセスしやすく魅力的なコンテンツの実現に取り組んでいます。よりコネクテッドで、豊富な情報が提供される世界を創造し、結果として民主主義的プロセスに好影響を与える推進力となる当社のテクノロジーのパワーを私たちは強く信じています。当社は 議員の方々が ご自分の声を取り戻し、有権者と彼らが重視する課題のために闘いを続けられるようお手伝いしました。私たちは同じように アドボケイトの皆様もサポートし、変化を起こし、生活を改善するための取り組みを支えてきました。知識、参加、コミュニティへの障壁を取り除く私たちの取り組みは、まだ始まったばかりです。
また、民主主義的プロセスを推し進めるだけでなく、そのプロセスを守ることは、私たち全員(実業界、政府、市民社会、さらには個人)の責任だと当社は信じています。2024年は、全世界で重要な選挙が行われる年です。私たちは、年初から当社ツールの悪用を防ぐための具体的対策を講じて参りました。11月5日の米国大統領選挙を前に、当社の取り組みの最新情報をお伝えします。
ポリシー
当社は、 使用禁止ポリシーを改定しました。 選挙における当社ツールの使用規則の厳格化と明確化を図ることが目的です。
- 選挙活動および候補者のなりすまし禁止。当社は、特定の候補者、イシュー、もしくは立場の宣伝や擁護、または投票もしくは寄付の要請を含め、政治活動に当社ツールを使用することを厳しく禁じます。同じく、当社ツールを使用して政治家候補および選挙で選ばれた政府役職者の声を模倣することも禁じます。
- 有権者の抑圧および選挙プロセスの妨害の禁止。当社は、有権者の抑圧、または選挙もしくは市民活動の妨害を扇動すること、これに関与すること、またはこれを助長することを目的として当社ツールを使用することを禁じます。これには、誤解を招く情報の作成、配布、または拡散の促進も含まれます。
防止
私たちは、選挙を背景としてツールが悪用されることを防ぐため、安全対策を強化しました。
- ユーザーのスクリーニング。当社のボイスクローンツールを使用するすべてのユーザーに、連絡先情報と支払情報の提出をお願いしています。これにより、サインアップ時に不正行為や高リスク地域とつながりのあるアカウントをブロックすることができます。
- 「使用禁止」音声。当社の「No-Go Voice(禁止音声)」テクノロジーは、何百人もの候補者、選挙で選ばれた役職者、その他の政治家、著名人の声の生成をブロックします。当社は、有効性を高めるために、この安全対策を継続的に強化しています。ブロックされた音声を生成しようとするユーザーを監視し、強制的な措置を講じています。
検出と執行
当社は防止策を補完するため、検出機能および執行機能を強化しました。
- 悪用の監視。 政治的コンテンツの識別を目的として特別に設計されたツールを含む当社独自の改良型分類ツール、ならびに自動モデレーションおよび人間のレビュワーが、当社規約に反するコンテンツの検出を可能にします。さらに、選挙妨害を目的とした悪用の可能性に関して有益な情報を提供する外部の脅威インテリジェンスチームと連携しているほか、政府や業界のパートナーとの情報共有チャネルも設けています。
- 厳格な執行。 悪用が判明した場合、当社は音声の削除、ユーザーへの保護観察処分、プラットフォームからのユーザー追放、さらには必要に応じて当局への通報など、断固たる措置を講じています。ElevenLabsから発信されたと思われる、問題のあるコンテンツを見かけた場合は、 当社にお知らせください。
- 政府の取り組みの支援。悪用を抑止するためには、政府による対策が不可欠であると私たちは考えています。今年7月、 私たちは 誇りを持って、 Protect Elections from Deceptive AI Act(選挙を欺瞞的AIから保護する法)への支持を表明しました。 エイミー・クロブシャー、ジョシュ・ホーリー、クリス・クーン、スーザン・コリンズ、マリア・キャントウェル、トッド・ヤング、ジョン・ヒッケンルーパー、マーシャ・ブラックバーンの各上院議員が主導したこの超党派法案は、選挙広告でAIを使用して有権者を欺くバッドアクターに責任を負わせます。当社は、選挙関係を含むAIセーフティへの取り組みについて、米国および全世界の政策立案者と引き続き協力して参ります。
プロビナンス(来歴)と透明性
幅広いコラボレーションを通じての識別を含め、AI生成コンテンツの明確な識別を可能にすることは、常にElevenLabsの責任ある開発活動の重要な要素です。
- AI音声分類ツール。2023年6月から 公開されている当社の AI音声分類ツールで音声サンプルをアップロードすれば、それがElevenLabsに由来するものかどうかをどなたでも分析することができます。当社は、このツールを公開することにより、音声のソースをたやすく識別し、誤情報の拡散を抑止するを目指しています。
- 業界との連携。AI コンテンツのプロビナンス(来歴)と透明性に関しては、当社単独での対処は不可能です。つまり、業界全体の取り組みが必須です。 私たちが 「コンテンツ認証イニシアチブ (CAI)」に参加した理由はそこにあります。CAIは、大手メディア企業とテクノロジー企業が結集し、来歴の基準を策定する活動です。私たちは、 「コンテンツの来歴と真正性のための連合 (C2PA)」を通じて、プラットフォーム上で生成された音声に暗号署名されたメタデータを埋め込むことにより、これらの標準を実装しています。これにより、主要なソーシャルメディアプラットフォームなど、CAIのツールを採用するコンテンツ配信チャネルは、当社の音声をAIが生成したものとして認識できるようになりました。
- サードパーティの検出ツールをサポート。 当社は、選挙関連のディープフェイクを含むAI生成コンテンツの識別ツールを改良するため、サードパーティのAIセーフティ企業と協力しています。当社は、 今年 7月、 Reality Defender と提携しました。Reality Defenderは、ディープフェイク検出に特化したサイバーセキュリティ企業です。同社の検出ツールを強化するため、当社のモデルおよびデータへのアクセスを提供しています。両社の協力関係は、AIが生成した脅威をリアルタイムで検出し、世界中の人々を誤情報や巧妙な詐欺から守ることができるように、政府や大企業を含むReality Defenderの顧客を支援します。当社は、AIコンテンツ検出の進歩に向け、カリフォルニア大学バークレー校情報学部の研究活動をはじめとする他の学術プロジェクトや商業プロジェクトにも参加しています。
今後数日間、数週間にわたり、私たちはこれらの安全対策についての学びと改良を継続いたします。私たちは、当社のツールがどのように使用されるかをすべて予測することはできないと考えています。それでも、私たちは、悪用を防止するための堅固な対策を引き続き講じるとともに、よりコネクテッドで、豊富な情報が提供される世界を創造するために自社のテクノロジーを展開して参ります。