Pensez aux scénarios comme à des compilateurs non-bloquants pour les événements d'action
Synchronisation des événements d'action : Ces événements passent ensuite par un planificateur qui garantit que la parole, les expressions faciales et les mouvements restent synchronisés. La synchronisation garantit que la parole de KUBI correspond parfaitement à ses gestes.
Génération d'événements avec LLM :
Synchronisation des événements d'action : Ces événements passent ensuite par un planificateur qui assure la synchronisation de la parole, des expressions faciales et des mouvements. La synchronisation garantit que la parole de KUBI correspond parfaitement à ses gestes. et déclencher de nouveaux événements d'action dynamiquement. Par exemple :
- Si BigBoy détecte
- Un autre exemple cool est - si l'utilisateur choisit notre application mobile pour passer une commande, toutes les interactions utilisateur (cliquer sur un produit, effectuer un paiement, etc.) sont converties en événements et BigBoy peut également réagir en temps réel. Par exemple, si l'utilisateur fait défiler "Latte au lait d'avoine", KUBI pourrait dire "Êtes-vous sûr de ne pas vouloir ce Latte au lait d'avoine ? Il est vraiment bon !"
Le truc cool, c'est que les scénarios peuvent même écouter les
DevOps et Observabilité
BigBoy voit littéralement et sait tout ce qui se passe. Plutôt cool, non ?
La plupart des services sont hébergés localement et sont encapsulés dans un conteneur Docker. Dans le conteneur, leur cycle de vie est géré par le système de contrôle de processus Supervisor. Les journaux d'erreurs sont collectés dans Sentry et sont intégrés dans une application d'administration personnalisée pour surveiller toute exception, le statut en temps réel des services et des capteurs ainsi que les rapports de latence. Le truc cool, c'est que l'application Flutter a été générée à 90 % par l'IA.
Utiliser ElevenLabs pour créer des interactions mémorablesconcevoir la voix en 15 minutes, complète avec des émotions et des pauses qui rendent la voix encore plus humaine.
Second Space avait une personnalité très spécifique en tête pour KUBI - un mélange de Deadpool, Wheatley du jeu Portal et un peu de Pathfinder d'Apex Legends. Ils ont réussi à
ElevenLabs alimente les capacités vocales de KUBI grâce à deux API principales :
- Gère environ 90 % de nos interactions.
- Utilise des scénarios préconçus pour l'ambiance parfaite.
- Les messages générés par les LLM peuvent être personnalisés, avec un audio de haute qualité, la meilleure prononciation, pas critiques en termes de temps.
- Offre une parole multilingue incroyablement naturelle en anglais, chinois, espagnol, japonais et même letton (Deadpool letton, quelqu'un ?).
Activé lorsqu'un client dit,
Mode Conversationnel (Temps Réel)"Hey KUBI!", l'IA conversationnelle d'ElevenLabs est capable de répondre en 200ms, rendant l'interaction vraiment humaine.
- Priorité : Faible latence.
- Échange une partie de la qualité audio pour la réactivité.
- Utilise le nouvel outil de language_detection en temps réel d'ElevenLabs, gérant dynamiquement différentes langues instantanément.
- Session d'IA conversationnelle démarrée à la demande lorsqu'un membre entre dans l'établissement ou dit « Hey, KUBI ! »
En utilisant l'IA conversationnelle d'ElevenLabs via une connexion WebSocket, KUBI peut exploiter l'appel de fonction, par exemple :
Outils Conversationnels Personnalisés
- make_order: Reconnaît les commandes, envoie des événements directement à BigBoy.
- make_payment: Notifie immédiatement notre PaymentService pour déclencher la machine à carte de crédit pour les paiements.
Étendre KUBI à d'autres marchésintentions de l'outil que d'autres. Ils utilisent actuellement Gemini 2.0 Flash comme modèle principal pour l'IA conversationnelle et ChatGPT 4o pour les générations de discours statiques.
Passer facilement d'un modèle LLM à un autre via le panneau d'administration d'ElevenLabs aide Second Space à optimiser la compréhension et la précision, car nous avons remarqué que différents modèles reconnaissent mieux les
Étendre KUBI à d'autres marchés
Les premiers commits GitHub de Second Space faisant référence à ElevenLabs remontent à janvier 2023 - même avant la sortie du modèle multilingue. Ils ont reconnu dès le début l'engagement d'ElevenLabs envers la qualité et ont construit une architecture anticipant le support multilingue futur. Maintenant, entrer sur des marchés comme le Japon et la Corée du Sud est aussi simple que d'appuyer sur un interrupteur — aucun travail de développement supplémentaire requis !
Conclusion