
ElevenLabsは2024 年の選挙にどう備えるか
当社の最優先事項は、システムの安全な開発・展開・使用を保証することです
コンテンツのプロビナンス(来歴)、トレーサビリティ、モデレーションへのフォーカスを通じてAIセーフティを強化
パネルディスカッションには ElevenLabsのほか、Alan Turing Institute、Ada Lovelace Institute、BTのリーダーたちが参加し、MIT Technology Review のMelissa Heikkilä氏が司会を務めました。
ElevenLabsは、音声AIテクノロジーが与えるインパクトを意識してこのテクノロジーを開発しています。AIセーフティを監督するという任務の中で、私が重点を置くのは、悪用を防ぎ、バッドアクターを抑止しながら、クリエイター、企業、ユーザーに力を与えることです。パネルディスカッションでは、ElevenLabsをより安全でイノバティブな空間にするために私たちが講じてきた対策の概要を説明し、AIセーフティ問題への対処を優先する戦略を取り入れることを提案しました。私が提案した戦略は次の通りです。
トレーサビリティ:AIが生成したコンテンツを個々のユーザーまで遡って追跡できること。ElevenLabsのシステムでは、プラットフォーム上で生成されたコンテンツを元のアカウントにリンクすることができます。また、当社のボイスクローンツールには、銀行口座情報でアカウントを認証したユーザーのみがアクセスできます。トレーサビリティに重点を置くことにより、AIプラットフォームを使用するすべての方がご自分の行動に責任を持つようになり、必要に応じて法的機関が個人を特定できるようになります。
当社は安全なAI開発を最優先していますが、AIの悪用に単独で立ち向かうことができる企業など存在しません。パネルディスカッションでは、社会や環境の変化に立ち向かい、安全なデジタルの未来を保証するためには、テクノロジー企業、政府、公民権運動に携わる団体、そして一般市民の幅広い協力が必要であることが確認されました。ElevenLabsは、私たちのコミュニティの中でオープンな対話を継続し、コンテンツ認証イニシアチブや 選挙に関するセーフティ協定などの取り組みをサポートすることにより、誤情報の撲滅に力を尽くしています。
パネルディスカッションでは、AI製品は安全に開発され、使用されなければならないという点で全員の意見が一致しました。同時に、私たちは、クリエイティブな、予想外の使い方も認めなければなりません。音声文字起こしを必要とする方々がデジタル コンテンツを利用しやすくするために、また、ALSその他の健康上の問題により声を失った方々の声を取り戻すためにElevenLabsのプラットフォームが活用されるケースをしばしば目にします。AIの応用を成功させるためには、AIメディアについての認識を深め、デジタルコンテンツとの批判的インタラクションを促し、信憑性を検証するためのツールを普及させ、一般市民と機関の両方にAIの倫理的な使用方法を啓蒙することが不可欠です。
当社の最優先事項は、システムの安全な開発・展開・使用を保証することです
責任あるAI開発を通じて選挙のインテグリティを実現