コンテンツにスキップ

セーフティ

AIオーディオで新たな可能性とポジティブな影響を広げるため、責任と安全対策を重視し、不正利用から人々を守ります。

私たちのセーフティミッション

ElevenLabsは、AIオーディオがもたらす大きなメリットを信じています。私たちの技術は、何百万人もの個人や何千もの企業に利用され、これまで届かなかった人々にもコンテンツや情報を届けたり、魅力的な教育ツールを作ったり、没入感のあるエンターテインメント体験を実現したり、事故や病気で声を失った方に声を取り戻したりと、さまざまな場面で活用されています。

すべての革新的な技術と同様に、技術が悪用された場合に被害が生じることも認識しています。そのため、モデルやプロダクトの悪用、特に他者を欺いたり搾取したりする行為から守ることに力を入れています。私たちのセーフティ原則は日々の業務の指針であり、具体的で多層的なセーフガードとして反映されています。

「AIセーフティはElevenLabsのイノベーションと切り離せません。システムの安全な開発・運用・利用を徹底することが、私たちの戦略の中心です。」

Mati Staniszewski

Mati Staniszewski

Co-founder at ElevenLabs

「AI生成コンテンツは今後も増え続けます。私たちは透明性を提供し、デジタルコンテンツの出所確認をサポートしたいと考えています。」

Piotr Dąbkowski

Piotr Dąbkowski

Co-founder at ElevenLabs

セーフティの原則

私たちのセーフティプログラムは、次の原則に基づいています:

Foreground

セーフガード

不正利用を試みる悪意あるユーザーには最大限の障壁を設け、正当なユーザーにはスムーズな体験を提供できるよう努めています。どんなセーフティシステムも完璧ではなく、時には善意のユーザーが誤ってブロックされたり、悪意のあるユーザーを見逃すこともあると認識しています。

多層防御の仕組みで包括的なセーフガードを導入しています。1つの層が突破されても、その先にある追加の層で不正利用を検知できるようになっています。セーフティ機構は、モデルやプロダクト、攻撃手法の進化に合わせて常にアップデートしています。

情報提供

C2PAなどの第三者基準を取り入れ、ディープフェイク検出ツールの強化にも協力しています。ElevenLabsで生成されたかどうかを判定できる業界最先端のAIオーディオ分類器も公開しています。

対応

禁止利用ポリシーに違反した顧客には、繰り返しや重大な違反の場合、アカウント停止などの措置を取ります。犯罪や違法行為については、法執行機関に通報します。

検知

AI分類器や人による審査、社内調査を活用し、禁止利用ポリシー違反を積極的に監視しています。外部団体とも連携し、不正利用の兆候を把握。一般の方が不正を報告できる仕組みも設けています。

防止

モデルのリリース前にはレッドチームテストを行い、サインアップ時に顧客を審査しています。また、著名人やリスクの高い声のクローン作成をブロックしたり、プロフェッショナルボイスクローン利用時に技術的な認証を必須とするなど、不正や無責任な利用を防ぐ機能も組み込んでいます。

セーフティパートナーシッププログラム

ディープフェイクをリアルタイムで検出する技術的ソリューションの開発を、主要な団体とともに支援しています。

コンテンツの報告

懸念のあるコンテンツを見つけ、それが私たちのツールで作成されたと思われる場合は、こちらからご報告ください。

禁止コンテンツ・利用ポリシー

私たちのツール利用時に許可されていないコンテンツや行為についてご案内します。

ElevenLabs AIスピーチ分類器

AIスピーチ分類器を使うと、その音声クリップがElevenLabsで作成されたかどうかを検出できます。

コンテンツの出所証明と信頼性のための連合

メディアの出所を追跡できるオープンな技術標準。

コンテンツオーセンティシティイニシアティブ

コンテンツの信頼性と出所証明のため、オープンな業界標準の普及を推進しています。

よくある質問

最もリアルな音声AIプラットフォーム