
Einführung von Eleven v3 (Alpha)
Das ausdrucksstärkste Text to Speech Modell
Wir freuen uns, bekannt zu geben Eleven v3 (alpha) — das ausdrucksstärkste Text to Speech-Modell.
Diese Forschungsvorschau bietet beispiellose Kontrolle und Realismus in der Sprachgenerierung mit:
- 70+ Sprachen
- Mehrsprecher-Dialog
- Audio tags like [excited], [whispers], and [sighs]
Eleven v3 (alpha) erfordert mehr Prompt-Engineering als frühere Modelle — aber die Ergebnisse sind beeindruckend.
Wenn Sie an Videos, Hörbüchern oder Medientools arbeiten — dies eröffnet ein neues Maß an Ausdruckskraft. Für Echtzeit- und Konversationsanwendungen empfehlen wir vorerst v2.5 Turbo oder Flash. Eine Echtzeitversion von v3 ist in Entwicklung.
Eleven v3 ist ab heute auf unserer Website verfügbar. Öffentlicher API-Zugang kommt bald. Für frühzeitigen Zugang, bitte Vertrieb kontaktieren.
Die Nutzung des neuen Modells in der ElevenLabs-App ist bis Ende Juni um 80% reduziert. Melden Sie sich hier an.
Warum wir v3 entwickelt haben
Warum wir v3 entwickelt habenAusdruckskraft. Stärker betonte Emotionen, Gesprächsunterbrechungen und glaubwürdige Dialoge waren schwer zu erreichen.
Seit der Einführung von Multilingual v2 haben wir gesehen, dass Voice-KI in professionellen Filmen, der Spieleentwicklung, Bildung und Barrierefreiheit eingesetzt wird. Aber die konstante Einschränkung war nicht die Klangqualität — es war
Eleven v3 schließt diese Lücke. Es wurde von Grund auf entwickelt, um Stimmen zu liefern, die seufzen, flüstern, lachen und reagieren — und so eine Sprache erzeugen, die wirklich lebendig wirkt.
| Feature | What it unlocks |
|---|---|
| Audio tags | Inline control of tone, emotion, and non-verbal reactions |
| Dialogue mode | Multi-speaker conversations with natural pacing and interruptions |
| 70+ languages | Full coverage of high-demand global languages |
| Deeper text understanding | Better stress, cadence, and expressivity from text input |
Verwendung von Audio-Tags
Verwendung von Audio-TagsPrompting-Leitfaden für v3 in den Dokumenten.
Audio-Tags sind inline mit Ihrem Skript und werden mit Kleinbuchstaben in eckigen Klammern formatiert. Mehr über Audio-Tags erfahren Sie in unserem
| 1 | “[happily][shouts] We did it! [laughs].” |
Zum Beispiel könnten Sie eingeben: „[flüstert] Etwas kommt… [seufzt] Ich kann es fühlen.“ Oder für mehr Ausdruckskontrolle können Sie mehrere Tags kombinieren:
Erstellung von Mehrsprecher-DialogenText to Dialogue API endpoint. Provide a structured array of JSON objects — each representing a speaker turn — and the model generates a cohesive, overlapping audio file:
| 1 | [ |
| 2 | {"speaker_id": "scarlett", "text": "(cheerfully) Perfect! And if that pop-up is bothering you, there’s a setting to turn it off under Notifications → Preferences."}, |
| 3 | {"speaker_id": "lex", "text": "You are a hero. An actual digital wizard. I was two seconds from sending a very passive-aggressive support email."}, |
| 4 | {"speaker_id": "scarlett", "text": "(laughs) Glad we could stop that in time. Anything else I can help with today?"} |
| 5 | ] |
| 6 |
Eleven v3 wird in unserem bestehenden Text to Speech-Endpunkt unterstützt. Zusätzlich führen wir einen neuen
Der Endpunkt verwaltet automatisch Sprecherwechsel, emotionale Veränderungen und Unterbrechungen.here.
Erfahren Sie mehr
| Plan | Launch promo | After 30 days |
|---|---|---|
| UI (self-serve) | 80% off (~5× cheaper) | Same as Multilingual V2 |
| API (self-serve & enterprise) | Same as Multilingual V2 | Same |
| Enterprise UI | Same as Multilingual V2 | Same |
Preise und Verfügbarkeit
- Use the Model Picker and select Eleven v3 (alpha)
Um v3 zu aktivieren:contact sales.
API-Zugang und Unterstützung im Studio kommen bald. Für frühzeitigen Zugang, bitte
API-Zugang und Unterstützung im Studio kommen bald. Für frühzeitigen Zugang, bitte
Wann v3 nicht verwendet werden solltev3 documentation and FAQ.
- Log in to ElevenLabs UI
- v3-Dokumentation 3 (alpha) in the model dropdown
- Paste your script — use tags or dialogue
- Generate audio
We’re excited to see how you bring v3 to life across new use cases — from immersive storytelling to cinematic production pipelines.
Entdecken Sie Artikel des ElevenLabs-Teams


Supporting the speech and ALS/MND communities at ASHA and Allied Professionals Forum
Members of the ElevenLabs Impact Program team recently attended two cornerstone events in the speech and assistive technology field, the American Speech-Language-Hearing Association (ASHA) Convention and the Allied Professionals Forum hosted by the International Alliance of ALS/MND Associations.









