私たちは、最先端のオーディオAIテクノロジーを安全に使用できるようにすることを心がけています。
AIオーディオは、言語やコミュニケーションの壁を取り除き、よりコネクテッドで、クリエイティブで、生産性の高い世界への道を開きますが、不正利用者を呼び寄せるおそれもあります。私たちのミッションは、悪用防止のための安全対策強化を継続しつつ、最高のオーディオAI製品を構築し、展開することです。
“ElevenLabsにとって、AIセーフティはイノベーションと切り離すことができないものです。システムの安全な開発、デプロイおよび使用は、常に私たちの戦略の中核です。”
Mati Staniszewski
Co-founder at ElevenLabs
私たちのミッションは、あらゆる言語、あらゆる声でコンテンツにアクセスできるようにすることです。
私たちは、世界中の何百万人ものユーザー、そして次のような大手出版・メディア企業からも厚い信頼を受けるAIオーディオプロバイダーです。
ElevenLabsのセーフティ対策
私たちは次の3原則に従い、AIオーディオが全世界の人々に利益をもたらすよう保証しながら、リスクを管理しています。それは、モデレーション、アカウンタビリティ、 プロビナンス(来歴)です。
モデレーション
私たちは、自社のテクノロジーで生成されたコンテンツを積極的に監視しています。

自動モデレーション。 私たちの自動システムが、コンテンツをスキャンして 私たちのポリシーへの違反をチェックし、違反コンテンツを完全にブロックするか、またはフラグを立てて審査に回します。
人の手によるモデレーション。現在増強中のモデレーターチームがフラグのついたコンテンツを審査し、一貫性のあるポリシー適用を支援します。
禁止音声。 私たちのポリシーはなりすましを禁止していますが、さらなるセーフティツールを駆使し、特に高リスクと考えられる音声を使用したコンテンツの作成を検出し、防止します。
voiceCAPTCHA。ボイスクローンツールの悪用をできる限り防止するため、独自の音声検証テクノロジーを開発しました。ハイファイボイスクローンツールのユーザーはご自分の声だけをクローニングすることができます。
禁止されるコンテンツおよび用途に関するポリシー
私たちのツールを使用するにあたって、使用が認められないコンテンツおよびアクティビティの種類について説明します。
アカウンタビリティ
悪用はそれなりの結果を伴うべきと私たちは考えています。

トレーサビリティ。バッドアクターが私たちのツールを悪用した場合、私たちはそれが誰なのかを突き止めます。私たちのシステムでは、生成されたコンテンツを元のアカウントまで遡って追跡することができます。ボイスクローンツールを使用できるのは、請求先情報でアカウントの認証を受けたユーザーのみです。
使用禁止。 私たちのプラットフォームに居場所はないことをバッドアクターに知らしめます。私たちのポリシーに違反したユーザーは 永久的に使用禁止処分とします。
法執行機関との連携。 私たちは当局に協力し、妥当な場合には、違法なコンテンツまたはアクティビティに関する情報を通報または開示します。
コンテンツを通報
問題のあるコンテンツを発見し、それが私たちのツールで作成されたと思われる場合はこちらから通報してください。
プロビナンス(来歴)
お客様は、音声がAIによって生成されたものであるかどうかを知る必要があると私たちは考えます。

AI Speech Classifier。私たちは、サンプルが変更されていない場合、99%の精度と80%の再現率で、その音声ファイルが私たちのテクノロジーで生成されたものかどうかをどなたでも確認できる高精度検出ツールを開発しました。
AI検出標準。メタデータ、透かしウォーターマーク、フィンガープリントソリューションなどのダウンストリームAI検出ツールが不可欠であると私たちは考えています。私たちは、 C2PAを通じて、プロビナンス(来歴)に関する業界標準の幅広い導入を後押ししています。
コラボレーション。 私たちは、他のAI企業、学術界、政策立案者に対し、力を合わせて業界全体のAI コンテンツ検出方法を開発するよう呼びかけています。私たちは、Content Authenticity Initiative(コンテンツ認証イニシアチブ)に参加するとともに、コンテンツ配信者や市民社会と連携し、 AI コンテンツの透明性確立に努めています。さらにAIセーフティに関する政府の取り組みにも協力しています。私たちは、アメリカ国立標準技術研究所 (NIST) AIセーフティ・インスティテュート・コンソーシアムのメンバーです。
ElevenLabs AI Speech Classifier
私たちのAI Speech Classifierを使用すれば、そのオーディオクリップがElevenLabsを使用して作成されたものかどうかを見分けることができます。
Coalition for Content Provenance and Authenticity(コンテンツの来歴と真正性のための連合)
メディアの出所を追跡することができるオープン技術標準。
Content Authenticity Initiative(コンテンツ認証イニシアチブ)
コンテンツの真正性およびプロビナンス(来歴)に関するオープン業界標準の導入を促進します。
“AIが生成するコンテンツは今後も増え続けるでしょう。私たちは、求められている透明性を提供し、デジタルコンテンツの出所の検証を支援したいと考えています。”
Piotr Dąbkowski
Co-founder at ElevenLabs
注視の焦点:2024年の選挙
2024年には世界の半分で選挙が行われます。今年の選挙に備え、私たちはAI音声の安全で公正な使用の推進に注力しています。
これらの取り組みを促進するため、私たちは、Amazon、Google、Meta、Microsoft、OpenAI、ElevenLabs などの業界リーダーが集結するTech Accord on Election Safety(選挙におけるAIの不正使用と闘うための技術協定)の最初の署名者になりました。これは、AIの悪用から世界の選挙を守るための協調的取り組みです。
“AIが日常生活の一部になりつつある今、私たちは、信頼できる製品を構築するとともに、パートナーと協力してAIの悪用を防ぐための対策を開発することに全力を注いでいます。”
Aleksandra Pedraszewska
AI Safety at ElevenLabs