
ElevenLabs Agent Skills
We’re introducing ElevenLabs Agent Skills, a collection of agent skills to enable you to build faster with ElevenLabs.
Das ausdrucksstärkste Text-zu-Sprache-Modell
Wir stellen Eleven v3 (Alpha) vor – das ausdrucksstärkste Text-zu-Sprache-Modell.
Eleven v3 ist nicht mehr in der Alpha-Phase und jetzt allgemein verfügbar.
70+ Sprachen erfordert mehr Prompt Engineering als frühere Modelle – aber die Ergebnisse sind beeindruckend.
Wenn Sie an Videos, Hörbüchern oder Medientools arbeiten, eröffnet dies neue Ausdrucksmöglichkeiten. Für Echtzeit- und Gesprächsanwendungen empfehlen wir weiterhin v2.5 Turbo oder Flash. Eine Echtzeit-Version von v3 ist in Entwicklung.
Wenn Sie an Videos, Hörbüchern oder Medientools arbeiten, eröffnet das neue Ausdrucksmöglichkeiten. Für Echtzeit- und Gesprächsanwendungen empfehlen wir weiterhin v2.5 Turbo oder Flash. Eine Echtzeit-Version von v3 ist in Entwicklung.API.
Warum wir v3 entwickelt habenAusdrucksstärke. Stärkere Emotionen, Gesprächsunterbrechungen und glaubwürdige Dialoge waren schwer umzusetzen.
Seit dem Start von Multilingual v2 wird Voice-KI in Film, Spieleentwicklung, Bildung und Barrierefreiheit eingesetzt. Die größte Einschränkung war jedoch nicht die Klangqualität, sondern die
| Feature | What it unlocks |
|---|---|
| Audio tags | Inline control of tone, emotion, and non-verbal reactions |
| Dialogue mode | Multi-speaker conversations with natural pacing and interruptions |
| 70+ languages | Full coverage of high-demand global languages |
| Deeper text understanding | Better stress, cadence, and expressivity from text input |
Audio-Tags verwendenPrompting-Guide für v3 in der Dokumentation.
Audio-Tags werden direkt im Skript eingesetzt und mit eckigen Klammern in Kleinbuchstaben geschrieben. Mehr zu Audio-Tags finden Sie in unserem
Professional Voice Clones (PVCs) sind derzeit noch nicht vollständig für Eleven v3 optimiert, was zu geringerer Klonqualität im Vergleich zu früheren Modellen führen kann. Während dieser Forschungsphase empfiehlt es sich, für v3-Funktionen einen Instant Voice Clone (IVC) oder eine gestaltete Stimme zu nutzen. Die Optimierung von PVCs für v3 folgt in Kürze.
| 1 | “[happily][shouts] We did it! [laughs].” |
Mehrsprecher-Dialoge gestaltenText-zu-Dialog-API-Endpunkt. Geben Sie ein strukturiertes Array von JSON-Objekten an – jedes steht für einen Sprecherwechsel – und das Modell erzeugt eine zusammenhängende, überlappende Audiodatei:
| 1 | [ |
| 2 | {"speaker_id": "scarlett", "text": "(cheerfully) Perfect! And if that pop-up is bothering you, there’s a setting to turn it off under Notifications → Preferences."}, |
| 3 | {"speaker_id": "lex", "text": "You are a hero. An actual digital wizard. I was two seconds from sending a very passive-aggressive support email."}, |
| 4 | {"speaker_id": "scarlett", "text": "(laughs) Glad we could stop that in time. Anything else I can help with today?"} |
| 5 | ] |
| 6 |
Der Endpunkt steuert automatisch Sprecherwechsel, emotionale Übergänge und Unterbrechungen.
Der Endpunkt steuert Sprecherwechsel, Emotionen und Unterbrechungen automatisch.hier.
| Plan | Launch promo | At the end of June |
|---|---|---|
| UI (self-serve) | 80% off (~5× cheaper) | Same as Multilingual V2 |
| UI (enterprise) | 80% off business plan pricing | Business plan pricing |
So aktivieren Sie v3:
API-Zugang und Unterstützung im Studio folgen in Kürze. Für frühen Zugang bitte Vertrieb kontaktieren.
Wann Sie v3 nicht verwenden sollten
Eleven v3 (Alpha) erfordert mehr Prompt Engineering als unsere bisherigen Modelle. Die Ergebnisse sind beeindruckend, aber Zuverlässigkeit und höhere Latenz machen es für Echtzeit- und Gesprächsanwendungen ungeeignet. Dafür empfehlen wir Eleven v2.5 Turbo/Flash.v3-Dokumentation und den FAQ.
Wir sind gespannt, wie Sie v3 für neue Anwendungsfälle einsetzen – von immersivem Storytelling bis zu Produktionspipelines im Filmbereich.

We’re introducing ElevenLabs Agent Skills, a collection of agent skills to enable you to build faster with ElevenLabs.
Transforming how we interact with technology