
Vorstellung von Eleven v3 (Alpha)
Das ausdrucksstärkste Text-zu-Sprache-Modell
Wir stellen Eleven v3 (Alpha) vor – das ausdrucksstärkste Text-zu-Sprache-Modell.
Eleven v3 ist nicht mehr in der Alpha-Phase und jetzt allgemein verfügbar.
- über 70 Sprachen
- Mehrsprecher-Dialog
- Audiotags wie [excited], [whispers] und [sighs]
70+ Sprachen erfordert mehr Prompt Engineering als frühere Modelle – aber die Ergebnisse sind beeindruckend.
Wenn Sie an Videos, Hörbüchern oder Medientools arbeiten, eröffnet dies neue Ausdrucksmöglichkeiten. Für Echtzeit- und Gesprächsanwendungen empfehlen wir weiterhin v2.5 Turbo oder Flash. Eine Echtzeit-Version von v3 ist in Entwicklung.
Wenn Sie an Videos, Hörbüchern oder Medientools arbeiten, eröffnet das neue Ausdrucksmöglichkeiten. Für Echtzeit- und Gesprächsanwendungen empfehlen wir weiterhin v2.5 Turbo oder Flash. Eine Echtzeit-Version von v3 ist in Entwicklung.API.
Warum wir v3 entwickelt haben
Warum wir v3 entwickelt habenAusdrucksstärke. Stärkere Emotionen, Gesprächsunterbrechungen und glaubwürdige Dialoge waren schwer umzusetzen.
Seit dem Start von Multilingual v2 wird Voice-KI in Film, Spieleentwicklung, Bildung und Barrierefreiheit eingesetzt. Die größte Einschränkung war jedoch nicht die Klangqualität, sondern die
Eleven v3 schließt diese Lücke. Das Modell wurde von Grund auf entwickelt, um Stimmen zu erzeugen, die seufzen, flüstern, lachen und reagieren – für Sprache, die wirklich lebendig wirkt.
| Feature | What it unlocks |
|---|---|
| Audio tags | Inline control of tone, emotion, and non-verbal reactions |
| Dialogue mode | Multi-speaker conversations with natural pacing and interruptions |
| 70+ languages | Full coverage of high-demand global languages |
| Deeper text understanding | Better stress, cadence, and expressivity from text input |
Audiotags verwenden
Audio-Tags verwendenPrompting-Guide für v3 in der Dokumentation.
Audio-Tags werden direkt im Skript eingesetzt und mit eckigen Klammern in Kleinbuchstaben geschrieben. Mehr zu Audio-Tags finden Sie in unserem
Professional Voice Clones (PVCs) sind derzeit noch nicht vollständig für Eleven v3 optimiert, was zu geringerer Klonqualität im Vergleich zu früheren Modellen führen kann. Während dieser Forschungsphase empfiehlt es sich, für v3-Funktionen einen Instant Voice Clone (IVC) oder eine gestaltete Stimme zu nutzen. Die Optimierung von PVCs für v3 folgt in Kürze.
| 1 | “[happily][shouts] We did it! [laughs].” |
Mehrsprecher-Dialoge erstellen
Mehrsprecher-Dialoge gestaltenText-zu-Dialog-API-Endpunkt. Geben Sie ein strukturiertes Array von JSON-Objekten an – jedes steht für einen Sprecherwechsel – und das Modell erzeugt eine zusammenhängende, überlappende Audiodatei:
| 1 | [ |
| 2 | {"speaker_id": "scarlett", "text": "(cheerfully) Perfect! And if that pop-up is bothering you, there’s a setting to turn it off under Notifications → Preferences."}, |
| 3 | {"speaker_id": "lex", "text": "You are a hero. An actual digital wizard. I was two seconds from sending a very passive-aggressive support email."}, |
| 4 | {"speaker_id": "scarlett", "text": "(laughs) Glad we could stop that in time. Anything else I can help with today?"} |
| 5 | ] |
| 6 |
Der Endpunkt steuert automatisch Sprecherwechsel, emotionale Übergänge und Unterbrechungen.
Der Endpunkt steuert Sprecherwechsel, Emotionen und Unterbrechungen automatisch.hier.
Preise und Verfügbarkeit
| Plan | Launch promo | At the end of June |
|---|---|---|
| UI (self-serve) | 80% off (~5× cheaper) | Same as Multilingual V2 |
| UI (enterprise) | 80% off business plan pricing | Business plan pricing |
So aktivieren Sie v3:
- Nutzen Sie den Modell-Auswahl und wählen Sie Eleven v3 (Alpha)
API-Zugang und Unterstützung im Studio folgen in Kürze. Für frühen Zugang bitte Vertrieb kontaktieren.
API-Zugang und Studio-Unterstützung folgen in Kürze. Für frühen Zugang
Wann Sie v3 nicht verwenden sollten
Eleven v3 (Alpha) erfordert mehr Prompt Engineering als unsere bisherigen Modelle. Die Ergebnisse sind beeindruckend, aber Zuverlässigkeit und höhere Latenz machen es für Echtzeit- und Gesprächsanwendungen ungeeignet. Dafür empfehlen wir Eleven v2.5 Turbo/Flash.v3-Dokumentation und den FAQ.
- Melden Sie sich an bei ElevenLabs UI
- Wählen Sie v3 (Alpha) im Modell-Dropdown
- Fügen Sie Ihr Skript ein – nutzen Sie Tags oder Dialoge
- Audio generieren
Wir sind gespannt, wie Sie v3 für neue Anwendungsfälle einsetzen – von immersivem Storytelling bis zu Produktionspipelines im Filmbereich.
Entdecken Sie Artikel des ElevenLabs-Teams


Practical guide: open-source agent frameworks and ElevenAgents
Connecting open-source agent frameworks to ElevenLabs voice via Custom LLM.









