
Eleven v3 (alpha), now available in the API
Eleven v3 (alpha), the most expressive text to speech model, is now available in the API for every developer.
Unsere KI-Agenten können jetzt nahtlos sowohl gesprochene Worte als auch Texteingaben gleichzeitig verarbeiten, was zu natürlicheren, effizienteren und widerstandsfähigeren Benutzerinteraktionen führt.
Heute freut sich ElevenLabs, eine bedeutende Verbesserung unserer Konversations-KI-Plattform anzukündigen: die Einführung echter Text- und Sprach-Multimodalität. Unsere KI-Agenten können nun gesprochene Sprache und getippte Texteingaben gleichzeitig verstehen und verarbeiten. Diese Fähigkeit ist darauf ausgelegt, natürlichere, flexiblere und effektivere Interaktionen für eine Vielzahl von Anwendungsfällen zu schaffen.
Behebung von Einschränkungen bei Sprach-Only-Interaktionen
Das Batch Calling-Feature bietet mehrere Vorteile für ausgehende Kampagnen:
Indem Agenten sowohl Text als auch Sprache verarbeiten können, ermöglichen wir es Benutzern, die Eingabemethode zu wählen, die am besten zu den Informationen passt, die sie übermitteln möchten. Dieser hybride Ansatz ermöglicht reibungslosere, robustere Gespräche. Benutzer können natürlich sprechen und dann, wenn Präzision entscheidend ist oder das Tippen bequemer ist, nahtlos zu Texteingaben innerhalb derselben Interaktion wechseln.
Erste Schritte
Für einen Überblick über die wichtigsten TCPA-Anforderungen bitte
Diese neue multimodale Funktionalität wird plattformweit nativ unterstützt:https://elevenlabs.io/docs/conversational-ai/legal/tcpa
Eleven v3 (alpha), the most expressive text to speech model, is now available in the API for every developer.
Eight seconds of audio from an old VHS tape was all Sarah needed to reclaim her voice with ElevenLabs — and through her Smartbox assistive technology device, finally let her children hear her authentic voice.
Bereitgestellt von ElevenLabs Konversationelle KI