Eleven v3 アルファのご紹介

v3を試す

私たちは、私たちの最先端のオーディオAIテクノロジーの安全な利用を確保することに全力を尽くしています。

AIオーディオは、言語やコミュニケーションの障壁を克服する手助けをし、よりつながりのある、創造的で生産的な世界への道を開きます。一方で、それは悪意のある行為者を引き寄せる可能性もあります。私たちのミッションは、最高の音声AI製品を構築・展開しつつ、それらの悪用を防ぐための安全対策を継続的に改善することです。

ElevenLabsにとって、AIセーフティはイノベーションと切り離すことができないものです。システムの安全な開発、デプロイおよび使用は、常に私たちの戦略の中核です。
A young man smiling while working at a computer in an office setting.

Mati Staniszewski

Co-founder at ElevenLabs

私たちのミッションは、あらゆる言語、あらゆる声でコンテンツにアクセスできるようにすることです。

私たちは、世界中の何百万人ものユーザー、そして次のような大手出版・メディア企業からも厚い信頼を受けるAIオーディオプロバイダーです。

The Washington Post Logo
CNN logo in red text
HarperCollins Publishers logo with a flame and water icon.

ElevenLabsのセーフティ対策

私たちは次の3原則に従い、AIオーディオが全世界の人々に利益をもたらすよう保証しながら、リスクを管理しています。それは、モデレーションアカウンタビリティプロビナンス(来歴)です

モデレーション

私たちは、自社のテクノロジーで生成されたコンテンツを積極的に監視しています。

Blurred yellow text box with a warning icon at the bottom left corner.

自動モデレーション。 私たちの自動システムが、コンテンツをスキャンして 私たちのポリシーへの違反をチェックし、違反コンテンツを完全にブロックするか、またはフラグを立てて審査に回します。

人の手によるモデレーション。現在増強中のモデレーターチームがフラグのついたコンテンツを審査し、一貫性のあるポリシー適用を支援します。

禁止音声。 私たちのポリシーはなりすましを禁止していますが、さらなるセーフティツールを駆使し、特に高リスクと考えられる音声を使用したコンテンツの作成を検出し、防止します。

voiceCAPTCHA。ボイスクローンツールの悪用をできる限り防止するため、独自の音声検証テクノロジーを開発しました。ハイファイボイスクローンツールのユーザーはご自分の声だけをクローニングすることができます。

アカウンタビリティ

悪用はそれなりの結果を伴うべきと私たちは考えています。

A digital interface showing a microphone icon, a folder icon, and a green circular pattern with a checkmark.

トレーサビリティ。バッドアクターが私たちのツールを悪用した場合、私たちはそれが誰なのかを突き止めます。私たちのシステムでは、生成されたコンテンツを元のアカウントまで遡って追跡することができます。ボイスクローンツールを使用できるのは、請求先情報でアカウントの認証を受けたユーザーのみです。

使用禁止。 私たちのプラットフォームに居場所はないことをバッドアクターに知らしめます。私たちのポリシーに違反したユーザーは 永久的に使用禁止処分とします

法執行機関との連携。 私たちは当局に協力し、妥当な場合には、違法なコンテンツまたはアクティビティに関する情報を通報または開示します。

プロビナンス(来歴)

お客様は、音声がAIによって生成されたものであるかどうかを知る必要があると私たちは考えます。

Abstract black and white wavy lines on a light background.

AI Speech Classifier。私たちは、サンプルが変更されていない場合、99%の精度と80%の再現率で、その音声ファイルが私たちのテクノロジーで生成されたものかどうかをどなたでも確認できる高精度検出ツールを開発しました。

AI検出標準。メタデータ、透かしウォーターマーク、フィンガープリントソリューションなどのダウンストリームAI検出ツールが不可欠であると私たちは考えています。私たちは、 C2PAを通じて、プロビナンス(来歴)に関する業界標準の幅広い導入を後押ししています。

コラボレーション。 私たちは、他のAI企業、学術界、政策立案者に対し、力を合わせて業界全体のAI コンテンツ検出方法を開発するよう呼びかけています。私たちは、Content Authenticity Initiative(コンテンツ認証イニシアチブ)に参加するとともに、コンテンツ配信者や市民社会と連携し、 AI コンテンツの透明性確立に努めています。さらにAIセーフティに関する政府の取り組みにも協力しています。私たちは、アメリカ国立標準技術研究所 (NIST) AIセーフティ・インスティテュート・コンソーシアムのメンバーです。

AIが生成するコンテンツは今後も増え続けるでしょう。私たちは、求められている透明性を提供し、デジタルコンテンツの出所の検証を支援したいと考えています。
Young man wearing a white T-shirt with "ElevenLabs" logo, indoors.

Piotr Dąbkowski

Co-founder at ElevenLabs

注視の焦点:2024年の選挙

2024年には世界の半分で選挙が行われます。今年の選挙に備え、私たちはAI音声の安全で公正な使用の推進に注力しています。

これらの取り組みを促進するため、私たちは、Amazon、Google、Meta、Microsoft、OpenAI、ElevenLabs などの業界リーダーが集結するTech Accord on Election Safety(選挙におけるAIの不正使用と闘うための技術協定)の最初の署名者になりました。これは、AIの悪用から世界の選挙を守るための協調的取り組みです。

AIが日常生活の一部になりつつある今、私たちは、信頼できる製品を構築するとともに、パートナーと協力してAIの悪用を防ぐための対策を開発することに全力を注いでいます。
A woman with shoulder-length blonde hair smiling at the camera against a plain light gray background.

Aleksandra Pedraszewska

AI Safety at ElevenLabs

私たちのセーフティへの取り組みについて詳しく読む

コンプライアンス

「禁止されるコンテンツおよび用途に関するポリシー」に反するコンテンツを発見し、それが私たちのプラットフォームで作成されたと思われる場合は、こちらから通報してください。EUのユーザーは、 (EU デジタルサービス法(DSA)第 16 条に基づき)違法コンテンツに該当する可能性があると思われるコンテンツを こちらから私たちに通報することができます。私たちは、(DSA第12条に基づき)EUのユーザーのための単一窓口も設けています。その他の懸念事項については こちらからご連絡ください。

ElevenLabsは、責任あるAIへの取り組みの一環として、法執行機関を含む政府当局との協力に関するポリシーを定めました。それが妥当な場合は、禁止コンテンツに関する情報の報告または開示、および法執行機関その他の政府機関からの正式照会への対応が含まれることがあります。法執行機関は、こちらから私たちの法務チームに連絡し、正式照会を行うことができます。 EUデジタルサービス法第11条に基づき、EUの法執行機関は、こちらのフォームからDSA情報請求を送信し、緊急を要さない法的手続きの要請をElevenLabs Sp. z o.o.に送信することができます。このフォームは、欧州委員会、加盟国の当局、および欧州デジタルサービス委員会に直接連絡を取るための単一窓口に指定されています。各当局は、Eleven Labsと英語とポーランド語でコミュニケーションを取ることができます。適用法により義務付けられている場合、国境を越えた法的手続きでは相互刑事共助条約を介しての仲裁付託が必要となることがあります。

お客様がEUのユーザーの場合は、ElevenLabsがコンテンツまたはアカウントに対して取った措置に対し、 6カ月以内に異議を申し立てることができます。アカウントまたはコンテンツが制限された場合は、受け取った通知に返信し、異議を申し立てることができます。DSA違法コンテンツ通報の結果に異議を申し立てたい場合は、こちらのフォームをご使用ください。

EUのユーザーは、コンテンツまたはアカウントの制限に関する紛争、および関連する不服申立てを解決するために、正式な裁判外和解機関に連絡することもできます。裁判外紛争解決機関による決定に拘束力はありません。
ElevenLabs

最高品質のAIオーディオで制作を

無料で始める

すでにアカウントをお持ちですか? ログイン