当社のAIスピーチ識別機能は、そのオーディオクリップがElevenLabsを使って作成されたかものかどうかを見分けます
2024年を通じて、世界中でさまざまな選挙が行われます。それに向けて、AI音声の安全で公正な利用を推進しています。
私たちの技術は、言語の壁を取り除き、世界的な理解を促進するというコミットメントから生まれました。教育、エンターテインメント、アクセシビリティにおいても、魅力的で包括的なコンテンツを提供し続けています。
しかし、AI技術の変化する状況とその政治プロセスへの影響を認識しています。システムの安全な開発、展開、使用を確保することが最優先であり、技術の進化に伴う誤用や誤情報の拡散を防ぐための追加措置を講じています。
誤用の防止
プラットフォームの全ユーザーにとってポジティブな体験を確保するため、AI音声が誤情報を広めることを防ぐ具体的なステップを講じています。プラットフォームを使って他人を偽装したり害を与えたりすることを禁止する規約に加え、「ノーゴーボイス」というセーフガードを導入します。このセーフガードは、大統領選や首相選に積極的に関与している政治候補者を模倣する音声の作成を検出し防止するためのものです。まずは米国と英国から始め、他の言語や選挙サイクルにも拡大する予定です。この措置を実践的なテストとフィードバックを通じて継続的に改善することを目指しています。他のAI企業やパートナーと協力し、これらのセーフガードを効果的に改善・拡張する方法を探求することを歓迎します。
また、民主的プロセスへの参加に影響を与えたり、有権者を誤解させたりする可能性のある政治コンテンツの作成を防ぐ新しい方法を積極的にテストしています。プラットフォームで生成されたコンテンツを元のアカウントに遡ることが常に可能です。誤用事例をより効果的に特定し対処するための新しいモデレーションと内部レビューのメカニズムを積極的に開発しています。選挙プロセスや有権者資格、投票の価値を誤って伝えることは民主主義を損なうものであり、AIを使って民主的システムに混乱や不信を生むことに断固反対します。他人を偽装した政治キャンペーン活動、チャットボットの作成、ロボコールの配置に技術を使用することは、規約に直接違反します。
AI生成コンテンツの透明性
AI生成コンテンツを明確に識別できるようにすることは、責任ある開発努力の重要な側面です。
昨年6月にAIスピーチ分類器をリリースしました。これにより、誰でもオーディオサンプルをアップロードして、そのサンプルがElevenLabsのAI生成オーディオかどうかを分析できます。オーディオコンテンツの出所をより簡単に評価できるようにすることで、誤情報の拡散を防ぐことを目指しています。パートナーシップや統合に興味がある方は、legal@elevenlabs.ioまでご連絡ください。プラットフォーム上で気になることや、プラットフォームで作成されたと思われるものを見つけた場合は、こちらからお知らせください。
イノベーションと責任のバランス
コミュニティが私たちの技術に見出すポジティブな応用に刺激を受けています。2024年以降も、コミュニティ、パートナー、市民社会、主要なステークホルダーとの継続的な対話を維持し、責任あるイノベーションに取り組んでいきます。
ElevenLabsチームによる記事をもっと見る

ElevenLabsとReality DefenderがAIセーフティに向けた取り組みで協力
Reality DefenderがElevenLabsの音声AIデータとインサイトを活用し、AI検出システムを強化

Supporting the speech and ALS/MND communities at ASHA and Allied Professionals Forum
Members of the ElevenLabs Impact Program team recently attended two cornerstone events in the speech and assistive technology field, the American Speech-Language-Hearing Association (ASHA) Convention and the Allied Professionals Forum hosted by the International Alliance of ALS/MND Associations.

