
Vi presenterar Eleven v3 (alpha)
Den mest uttrycksfulla Text to Speech-modellen
Vi är glada att avslöja Eleven v3 (alpha) — den mest uttrycksfulla Text to Speech-modellen.
Denna forskningsförhandsvisning ger oöverträffad kontroll och realism till talgenerering med:
- 70+ språk
- Dialog med flera talare
- Audio tags like [excited], [whispers], and [sighs]
Eleven v3 (alpha) kräver mer promptteknik än tidigare modeller — men resultaten är fantastiska.
Om du arbetar med videor, ljudböcker eller medieverktyg — detta öppnar en ny nivå av uttrycksfullhet. För realtids- och konversationsanvändning rekommenderar vi att du stannar med v2.5 Turbo eller Flash för tillfället. En realtidsversion av v3 är under utveckling.
Eleven v3 är tillgänglig idag på vår webbplats. Offentlig API-åtkomst kommer snart. För tidig åtkomst, vänligen kontakta försäljning.
Användning av den nya modellen i ElevenLabs-appen är 80% rabatt fram till slutet av juni. Registrera dig här.
Varför vi byggde v3
Varför vi byggde v3uttrycksfullhet. Mer överdrivna känslor, samtalsavbrott och trovärdiga dialoger var svåra att uppnå.
Sedan lanseringen av Multilingual v2 har vi sett AI-röster användas i professionell film, spelutveckling, utbildning och tillgänglighet. Men den konsekventa begränsningen var inte ljudkvaliteten — det var
Eleven v3 åtgärdar denna brist. Den byggdes från grunden för att leverera röster som suckar, viskar, skrattar och reagerar — och skapar tal som känns genuint responsivt och levande.
| Feature | What it unlocks |
|---|---|
| Audio tags | Inline control of tone, emotion, and non-verbal reactions |
| Dialogue mode | Multi-speaker conversations with natural pacing and interruptions |
| 70+ languages | Full coverage of high-demand global languages |
| Deeper text understanding | Better stress, cadence, and expressivity from text input |
Använda ljudtaggar
Använda ljudtaggarpromptguide för v3 i dokumentationen.
Ljudtaggar finns inline med ditt manus och är formaterade med små bokstäver inom hakparenteser. Du kan se mer om ljudtaggar i vår
| 1 | “[happily][shouts] We did it! [laughs].” |
Till exempel kan du ange: ”[viskar] Något är på väg… [suckar] Jag kan känna det.” Eller för mer uttrycksfull kontroll kan du kombinera flera taggar:
Skapa dialog med flera talareText to Dialogue API endpoint. Provide a structured array of JSON objects — each representing a speaker turn — and the model generates a cohesive, overlapping audio file:
| 1 | [ |
| 2 | {"speaker_id": "scarlett", "text": "(cheerfully) Perfect! And if that pop-up is bothering you, there’s a setting to turn it off under Notifications → Preferences."}, |
| 3 | {"speaker_id": "lex", "text": "You are a hero. An actual digital wizard. I was two seconds from sending a very passive-aggressive support email."}, |
| 4 | {"speaker_id": "scarlett", "text": "(laughs) Glad we could stop that in time. Anything else I can help with today?"} |
| 5 | ] |
| 6 |
Eleven v3 stöds i vår befintliga Text to Speech-endpoint. Dessutom introducerar vi en ny
Endpointen hanterar automatiskt talarövergångar, känslomässiga förändringar och avbrott.here.
Läs mer
| Plan | Launch promo | After 30 days |
|---|---|---|
| UI (self-serve) | 80% off (~5× cheaper) | Same as Multilingual V2 |
| API (self-serve & enterprise) | Same as Multilingual V2 | Same |
| Enterprise UI | Same as Multilingual V2 | Same |
Prissättning och tillgänglighet
- Use the Model Picker and select Eleven v3 (alpha)
För att aktivera v3:contact sales.
API-åtkomst och stöd i Studio kommer snart. För tidig åtkomst, vänligen
API-åtkomst och stöd i Studio kommer snart. För tidig åtkomst, vänligen
När du inte ska använda v3v3 documentation and FAQ.
- Log in to ElevenLabs UI
- v3-dokumentationen 3 (alpha) in the model dropdown
- Paste your script — use tags or dialogue
- Generate audio
We’re excited to see how you bring v3 to life across new use cases — from immersive storytelling to cinematic production pipelines.
Utforska artiklar av ElevenLabs-teamet


Supporting the speech and ALS/MND communities at ASHA and Allied Professionals Forum
Members of the ElevenLabs Impact Program team recently attended two cornerstone events in the speech and assistive technology field, the American Speech-Language-Hearing Association (ASHA) Convention and the Allied Professionals Forum hosted by the International Alliance of ALS/MND Associations.









