
Présentation de Eleven v3 (alpha)
Le modèle Text to Speech le plus expressif
Nous sommes ravis de vous présenter Eleven v3 (alpha) — le modèle Text to Speech le plus expressif.
Eleven v3 n’est plus en version alpha et est désormais disponible pour tous.
- Plus de 70 langues
- Dialogue multi-intervenants
- Balises audio comme [excited], [whispers] et [sighs]
Plus de 70 langues demande plus de prompt engineering que les modèles précédents — mais le résultat est bluffant.
Si vous travaillez sur des vidéos, des livres audio ou des outils médias, vous accédez à un nouveau niveau d'expressivité. Pour les usages en temps réel ou conversationnels, nous vous conseillons de rester sur v2.5 Turbo ou Flash pour l’instant. Une version temps réel de v3 est en cours de développement.
Si vous travaillez sur des vidéos, des livres audio ou des outils médias, vous accédez à un nouveau niveau d'expressivité. Pour les usages en temps réel ou conversationnels, nous vous conseillons de rester sur v2.5 Turbo ou Flash pour l’instant. Une version temps réel de v3 est en cours de développement.API.
Pourquoi nous avons créé v3
Pourquoi nous avons créé v3l’expressivité. Des émotions plus marquées, des interruptions naturelles et des échanges crédibles étaient difficiles à obtenir.
Depuis le lancement de Multilingual v2, la voix IA a été adoptée dans le cinéma professionnel, le développement de jeux, l’éducation et l’accessibilité. Mais la limite principale n’était pas la qualité sonore — c’était
Eleven v3 comble ce manque. Nous l’avons conçu pour générer des voix qui soupirent, chuchotent, rient et réagissent — pour un rendu vivant et naturel.
| Feature | What it unlocks |
|---|---|
| Audio tags | Inline control of tone, emotion, and non-verbal reactions |
| Dialogue mode | Multi-speaker conversations with natural pacing and interruptions |
| 70+ languages | Full coverage of high-demand global languages |
| Deeper text understanding | Better stress, cadence, and expressivity from text input |
Utiliser les balises audio
Utiliser les balises audioguide de prompting pour v3 dans la documentation.
Les balises audio s’intègrent directement dans votre script et s’écrivent entre crochets en minuscules. Retrouvez plus d’informations sur les balises audio dans notre
Les clones vocaux professionnels (PVC) ne sont pas encore totalement optimisés pour Eleven v3, ce qui peut entraîner une qualité de clonage inférieure par rapport aux modèles précédents. Pendant cette phase de prévisualisation, il est préférable d’utiliser un Instant Voice Clone (IVC) ou une voix conçue pour votre projet si vous souhaitez profiter des fonctionnalités de v3. L’optimisation des PVC pour v3 arrive bientôt.
| 1 | “[happily][shouts] We did it! [laughs].” |
Créer un dialogue multi-intervenants
Créer un dialogue multi-intervenantsendpoint Text to Dialogue API. Fournissez un tableau structuré d’objets JSON — chacun représentant une prise de parole — et le modèle génère un fichier audio cohérent et superposé :
| 1 | [ |
| 2 | {"speaker_id": "scarlett", "text": "(cheerfully) Perfect! And if that pop-up is bothering you, there’s a setting to turn it off under Notifications → Preferences."}, |
| 3 | {"speaker_id": "lex", "text": "You are a hero. An actual digital wizard. I was two seconds from sending a very passive-aggressive support email."}, |
| 4 | {"speaker_id": "scarlett", "text": "(laughs) Glad we could stop that in time. Anything else I can help with today?"} |
| 5 | ] |
| 6 |
L’endpoint gère automatiquement les transitions de locuteur, les changements d’émotion et les interruptions.
Le point de terminaison gère automatiquement les transitions entre intervenants, les changements d’émotion et les interruptions.ici.
Tarifs et disponibilité
| Plan | Launch promo | At the end of June |
|---|---|---|
| UI (self-serve) | 80% off (~5× cheaper) | Same as Multilingual V2 |
| UI (enterprise) | 80% off business plan pricing | Business plan pricing |
Pour activer v3 :
- Utilisez le sélecteur de modèle et choisissez Eleven v3 (alpha)
L’accès API et le support dans Studio arrivent bientôt. Pour un accès anticipé, contactez le service commercial.
L’accès API et la prise en charge dans Studio arrivent bientôt. Pour un accès anticipé,
Quand ne pas utiliser v3
Eleven v3 (alpha) demande plus de prompt engineering que nos modèles précédents. Quand ça fonctionne, le rendu est bluffant, mais la fiabilité et la latence plus élevée ne conviennent pas aux usages en temps réel ou conversationnels. Pour ces cas, nous recommandons Eleven v2.5 Turbo/Flash.documentation complète de v3 et la FAQ.
- Connectez-vous à l’interface ElevenLabs
- Sélectionnez v3 (alpha) dans la liste des modèles
- Collez votre script — utilisez des balises ou un dialogue
- Générez l’audio
Nous avons hâte de voir comment vous allez donner vie à v3 dans de nouveaux usages — de la narration immersive à la production cinématographique.
Découvrez les articles de l'équipe ElevenLabs


Introducing Experiments in ElevenAgents
The most data-driven way to improve real-world agent performance.









