.webp&w=3840&q=95)
ElevenLabs 会話型AIでDeepSeek R1と話す — コピー
ElevenLabs 会話型AIプラットフォームでDeepSeek R1に声を与えました
最近、皆がDeepSeekについて話していますが、もしDeepSeekが話せたらどんな声になるのか考えたことはありますか?ここで活用できるのがElevenLabsの会話型AIで、DeepSeek R1と話すことが可能になります。
ElevenLabs 会話型AIは、カスタマイズされたリアルタイムの会話型音声エージェントを展開するためのプラットフォームです。このプラットフォームの大きな利点は柔軟性で、ニーズに応じて異なるLLMを組み込むことができます。
このカスタムLLMオプションは、OpenAI互換のAPIプロバイダーと連携し、モデルがツール使用/機能呼び出しをサポートしている限り動作します。ドキュメントにはGroqCloud、Together AI、およびCloudflareのガイドがあります。次のデモではCloudflareを使用します。
使用しているモデルはDeepSeek-R1-Distill-Qwen-32Bで、Qwen2.5に基づいてDeepSeek-R1から蒸留されたモデルです。OpenAI-o1-miniを様々なベンチマークで上回り、密集モデルの新しい最先端の結果を達成しています。
蒸留版を使用する理由は、純粋なバージョンがまだ機能呼び出しに確実に対応していないためです。実際、R1推論モデルはまだ機能呼び出しをサポートしていません!進捗を確認するにはこの問題をフォローしてください。
ElevenLabs 会話型AIを始める
カスタムLLMを接続するプロセスは比較的簡単で、エージェントの作成から始まります。このプロジェクトではMath Tutorテンプレートを使用します。DeepSeekの声を聞きたいだけなら、エージェントのデモをご自分で試してみてください。
始めるには、ElevenLabs 会話型AIアプリページにアクセスし、新しいAIエージェント「DeepSeeker」を作成します。DeepSeekの推論が活躍できるユースケースとしてMath Tutorテンプレートを選択し、「エージェントを作成」を選びます。
数学テンプレートには、LLMが書いた通りではなく、自然言語で数字や方程式を読み上げるようにするシステムプロンプトが含まれています。例えば、LLMの応答が「ax^2=4」の場合、「アルファかけるxの二乗は4」と書くように指示します。

推論モデルは一般的に「思考の連鎖」を説明しますが、システムプロンプトを拡張して、解決策のステップバイステップの推論を提供するように指定することで、良い数学講義を確実に得ることができます。これを一般的にしておくか、具体的な例を含めてプロンプトを拡張することもできます。
しかし、DeepSeek R1の個性を本当に感じたい場合は、エージェントにDeepSeek AIとして自己紹介させ、さまざまなトピックに関する質問に答えるようにシステムプロンプトを設定する空白のテンプレートを作成することもできます。
Cloudflare Workers AIでDeepSeek R1を設定
次に、エージェントで使用するDeepSeek R1のバージョンのエンドポイントを取得する必要があります。この例では、Cloudflareを使用し、評価目的でDeepSeek-R1-Distill-Qwen-32Bを提供していますが、Workers AIプラットフォームで他のホスティングオプションも検討できます。例えば、fireworks.ai、GroqCloud、together.ai
まず、dash.cloudflare.comにアクセスし、アカウントを作成またはサインインします。ナビゲーションでAI > Workers AIを選択し、「Use REST API」ウィジェットをクリックします。

APIキーを取得するには、「Create a Workers AI API Token」をクリックし、安全に保管してください。 key, click the “Create a Workers AI API Token”, and make sure to store it securely.
APIキーを取得したら、すぐにcurlリクエストで試すことができます。CloudflareはOpenAI互換のAPIエンドポイントを提供しており、非常に便利です。この時点で、モデルとフルエンドポイントをメモしておいてください—アカウントIDを含めて。
例えば:https://api.cloudflare.com/client/v4/accounts/{ACCOUNT_ID}c/ai/v1/
curl https://api.cloudflare.com/client/v4/accounts/{ACCOUNT_ID}/ai/v1/chat/completions \ -X POST \ -H "Authorization: Bearer {API_TOKEN}" \ -d '{ "model": "@cf/deepseek-ai/deepseek-r1-distill-qwen-32b", "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "How many Rs in the word Strawberry?"} ], "stream": false }'
ElevenLabsでカスタムLLMを設定
次のステップは、これらの詳細をElevenLabsのエージェントに追加することです。まず、ElevenLabsアプリでDeepSeeker AIエージェントに移動し、一番下に新しく作成したAPIキーをシークレットとして追加します。CLOUDFLARE_AUTH_TOKENのようなキーを与え、変更を保存します。

次に、LLMの下でカスタムLLMオプションを選択し、Cloudflare Workers AI OpenAI互換APIエンドポイントを提供します:https://api.cloudflare.com/client/v4/accounts/{ACCOUNT_ID}/ai/v1
URLの「{ACCOUNT_ID}」をCloudflareに表示されるアカウントIDに置き換えてください。
モデルIDを追加します:@cf/deepseek-ai/deepseek-r1-distill-qwen-32b
最後に、今作成したシークレットを選択します。

テストしてみましょう
すべての設定が完了したので、「AIエージェントをテスト」をクリックして、次の数学問題で試してみましょう:
「2つの列車が東西にそれぞれ65mphと85mphで通過します。330マイル離れるまでどれくらいかかりますか?」
注意:支払い方法が設定されていない場合、Cloudflare Workers AI APIは制限され、応答時間が長くなる可能性があります。運用に移行する前に請求アカウントを設定してください。他のホスティングプラットフォームではこの問題がないかもしれません。
結論
ElevenLabs 会話型AIプラットフォームを使用してリアルタイムの会話型AIエージェントを構築することで、OpenAI互換のAPIプロバイダーを通じてカスタムLLMをプラグインすることで、新しいモデルのリリースに迅速に対応できます。
使用したいモデルがOpenAI互換で機能呼び出しをサポートしている限り、リアルタイム音声エージェントと統合できます。これは、カスタムデータセットで微調整したモデルを含むことができます。ElevenLabsライブラリから利用可能な任意の声、または自分の声をクローン作成した場合も使用できます。
ElevenLabsチームによる記事をもっと見る
.webp&w=3840&q=95)
.webp&w=3840&q=95)
高度なテキスト読み上げ API を使用した会話型 AI アプリケーションの構築
自然な対話で会話型 AI アプリケーションを強化します。