.webp&w=3840&q=95)
7 tips for creating a professional-grade voice clone in ElevenLabs
Learn how to create professional-grade voice clones with ElevenLabs using these 7 essential tips.
Einführung von Eleven v3 Alpha
v3 ausprobierenEleven v3 is the most expressive Text to Speech model
Wir freuen uns, bekannt zu geben Eleven v3 (alpha) — das ausdrucksstärkste Text to Speech-Modell.
Diese Forschungsvorschau bietet beispiellose Kontrolle und Realismus in der Sprachgenerierung mit:
Eleven v3 (alpha) erfordert mehr Prompt-Engineering als frühere Modelle — aber die Ergebnisse sind beeindruckend.
Wenn Sie an Videos, Hörbüchern oder Medientools arbeiten — dies eröffnet ein neues Maß an Ausdruckskraft. Für Echtzeit- und Konversationsanwendungen empfehlen wir vorerst v2.5 Turbo oder Flash. Eine Echtzeitversion von v3 ist in Entwicklung.
Eleven v3 ist ab heute auf unserer Website verfügbar. Öffentlicher API-Zugang kommt bald. Für frühzeitigen Zugang, bitte Vertrieb kontaktieren.
Die Nutzung des neuen Modells in der ElevenLabs-App ist bis Ende Juni um 80% reduziert. Melden Sie sich hier an.
Warum wir v3 entwickelt habenexpressiveness. More exaggerated emotions, conversational interruptions, and believable back-and-forth were difficult to achieve.
Seit der Einführung von Multilingual v2 haben wir gesehen, dass Voice-KI in professionellen Filmen, der Spieleentwicklung, Bildung und Barrierefreiheit eingesetzt wird. Aber die konstante Einschränkung war nicht die Klangqualität — es war
Feature | What it unlocks |
---|---|
Audio tags | Inline control of tone, emotion, and non-verbal reactions |
Dialogue mode | Multi-speaker conversations with natural pacing and interruptions |
70+ languages | Full coverage of high-demand global languages |
Deeper text understanding | Better stress, cadence, and expressivity from text input |
Verwendung von Audio-Tagsprompting guide for v3 in the docs.
Audio-Tags sind inline mit Ihrem Skript und werden mit Kleinbuchstaben in eckigen Klammern formatiert. Mehr über Audio-Tags erfahren Sie in unserem
1 | “[happily][shouts] We did it! [laughs].” |
Erstellung von Mehrsprecher-DialogenText to Dialogue API endpoint. Provide a structured array of JSON objects — each representing a speaker turn — and the model generates a cohesive, overlapping audio file:
1 | [ |
2 | {"speaker_id": "scarlett", "text": "(cheerfully) Perfect! And if that pop-up is bothering you, there’s a setting to turn it off under Notifications → Preferences."}, |
3 | {"speaker_id": "lex", "text": "You are a hero. An actual digital wizard. I was two seconds from sending a very passive-aggressive support email."}, |
4 | {"speaker_id": "scarlett", "text": "(laughs) Glad we could stop that in time. Anything else I can help with today?"} |
5 | ] |
6 |
Eleven v3 wird in unserem bestehenden Text to Speech-Endpunkt unterstützt. Zusätzlich führen wir einen neuen
Der Endpunkt verwaltet automatisch Sprecherwechsel, emotionale Veränderungen und Unterbrechungen.here.
Plan | Launch promo | After 30 days |
---|---|---|
UI (self-serve) | 80% off (~5× cheaper) | Same as Multilingual V2 |
API (self-serve & enterprise) | Same as Multilingual V2 | Same |
Enterprise UI | Same as Multilingual V2 | Same |
Preise und Verfügbarkeit
Um v3 zu aktivieren:contact sales.
API-Zugang und Unterstützung im Studio kommen bald. Für frühzeitigen Zugang, bitte
Wann v3 nicht verwendet werden solltev3 documentation and FAQ.
We’re excited to see how you bring v3 to life across new use cases — from immersive storytelling to cinematic production pipelines.
Learn how to create professional-grade voice clones with ElevenLabs using these 7 essential tips.
Learn how to create a beat from scratch.
Bereitgestellt von ElevenLabs Konversationelle KI