Pomiń

Podsumowanie webinaru: Jak tworzyć bezpieczne AI Agents do wdrożeń w firmie

Sprawić, by agent AI prowadził rozmowy, to proste. Przekonać do niego dział bezpieczeństwa, prawników i klientów — tu najczęściej pojawiają się problemy przy wdrożeniach w firmach.

webinar-recap

Podsumowanie webinaru: Jak tworzyć bezpieczne AI Agents do wdrożeń w firmie

Sprawić, by agent AI prowadził rozmowy, to proste. Przekonać do niego dział bezpieczeństwa, prawników i klientów — tu najczęściej pojawiają się problemy przy wdrożeniach w firmach.

W naszym ostatnim webinarze Przewodnik po agentach AI w finansach pokazaliśmy, jak budujemy, wdrażamy i rozwijamy agentów AI w finansach — od demo na żywo po realne wyniki w Revolut, Klarna i Better.

Dlaczego to ważne dla finansów

Jak zbudować warstwowe zabezpieczenia

Na ElevenAgents wdrożono już ponad cztery miliony agentów. Te, które sprawdzają się w firmach, mają jedną wspólną cechę: bezpieczeństwo było zaplanowane od początku, a nie dodane po pierwszym incydencie.

Różni agenci wymagają zupełnie innych granic.

To nie tylko kwestia automatyzacji — chodzi o to, by zapewnić spójną, zgodną z zasadami obsługę na dużą skalę, bez utraty ludzkiego podejścia.

Ponieważ agenci są niedeterministyczni, żadne pojedyncze zabezpieczenie nie wystarczy. Dlatego w firmach stosuje się podejście warstwowe — kilka zabezpieczeń działających razem, by przypadki naruszeń były rzadkością.

Demo: Agent bankowości detalicznej

WejścieKlient banku dzwoni, by sprawdzić saldo, przejrzeć ostatnie transakcje, zgłosić podejrzaną wypłatę i zapytać o swój kredyt.

Decyzje

  • Agent potwierdził tożsamość klienta przez serię pytań zabezpieczających, zanim dopuścił do konta
  • Po weryfikacji agent pobrał aktualne saldo konta i oszczędności, korzystając z narzędzi backendowych
  • Gdy klient zgłosił nieznaną wypłatę z bankomatu, agent od razu oznaczył ją jako podejrzaną, wygenerował numer zgłoszenia i przekazał sprawę do zespołu ds. oszustw
  • W trakcie rozmowy temat zmienił się na kredyt — agent wykrył zmianę i bez problemu przekierował do odpowiedniego pod-agenta
  • Gdy klient poprosił o poradę, ile spłacić, agent odmówił udzielenia porady finansowej, jasno wyjaśnił dlaczego i zaproponował, w czym może pomóc

Na każdym z tych etapów warto wcześniej ustalić, co robić w razie naruszenia: czy kończysz rozmowę, próbujesz jeszcze raz z poprawką, czy przekazujesz sprawę człowiekowi? To wpływa na doświadczenie użytkownika, gdy coś pójdzie nie tak.To nie jest chatbot z gotowym scenariuszem.

Agent obsługuje uwierzytelnianie, pytania o konto, zgłoszenia oszustw i kredyty w jednej rozmowie — cały czas trzymając się zasad.

Zabezpieczenia są wielowarstwowe i wpisane w prompt systemowy, obejmują też własne reguły, np. zakaz doradztwa finansowego. Każda rozmowa generuje automatyczne podsumowanie, ocenę i analitykę, więc zespoły mogą śledzić wyniki tysięcy rozmów.

Zgodność i bezpieczeństwo

W finansach wdrożenia AI rzadko zawodzą przez technologię. Najczęściej nie przechodzą przez kontrole bezpieczeństwa i zgodności.

ElevenLabs ma certyfikaty SOC 2 Type II i RODO oraz jest dostawcą usług PCI DSS poziomu 1 — to najwyższy standard i pierwsza platforma agentów AI z takim osiągnięciem. Dzięki temu banki i sklepy mogą korzystać z platformy bez własnej infrastruktury czy VPC. Nie musisz wybierać między szybkością a bezpieczeństwem.

Scenariusz:do certyfikacji AIUC-1 od razu po wdrożeniu.

Certyfikat AIUC-1 to pierwszy standard zabezpieczeń, bezpieczeństwa i niezawodności stworzony specjalnie dla agentów AI – opracowany z udziałem ponad 75 CISO z firm z listy Fortune 500 oraz badaczy ze Stanford, MIT i MITRE.

Obejmuje trzy rzeczy, o które firmy pytają najczęściej: 1) potwierdzone zabezpieczenia po ponad 5000 testów, 2) szybsze wdrożenia dzięki jasnemu sygnałowi zaufania, który przyspiesza kontrole bezpieczeństwa, 3) dostęp do ubezpieczenia agentów AI obejmującego halucynacje, wycieki danych i nieautoryzowane działania przez Lloyd's of London.

Dobre praktyki wdrażania agentów AI w finansach

  1. Podziel złożonego agenta na wyspecjalizowane pod-agenty.Wrzucenie wszystkich instrukcji do jednego promptu pogarsza niezawodność. Modułowe pod-agenty — każdy z własnym promptem, narzędziami i bazą wiedzy — łatwiej testować, aktualizować i kontrolować.
  2. Połącz sztywne reguły z elastycznością LLM. Użyj twardego routingu do kroków jak uwierzytelnianie, gdzie nie ma miejsca na interpretację. Warunki oparte na LLM sprawdzą się przy rozumieniu intencji i otwartych pytaniach. Potrzebujesz obu.
  3. Warstwuj zabezpieczenia.Instrukcje w promptach to dopiero początek. Wbudowane zabezpieczenia dotyczące skupienia, manipulacji i treści to druga warstwa. Własne reguły — np. blokada porad finansowych — dają ci pełną kontrolę nad wyjątkami.
  4. Ustal kryteria oceny przed wdrożeniem. Od początku zaplanuj ocenę rozmów, kategorie intencji, wykrywanie halucynacji i śledzenie zamknięcia spraw. Przy wdrożeniach na dużą skalę zwykle używa się od 20 do 70 kryteriów na agenta.
  5. Monitoruj cały workflow, nie tylko pojedyncze rozmowy.Sprawdź, jak użytkownicy przechodzą między pod-agentami, gdzie się blokują i które węzły powodują powtarzające się pętle. Analityka workflow pokazuje problemy, których nie widać w pojedynczych rozmowach.
  6. Zadbaj o uwierzytelnianie już na etapie projektowania. Metody uwierzytelniania są różne — pytania zabezpieczające, jednorazowe kody, powiadomienia w aplikacji, telekomunikacja. Wybór zależy od twojego modelu ryzyka. Zdecyduj przed budową, nie po.

Obejrzyj całe nagranie

Demo 2: Testy symulacyjne przed wdrożeniemtutaj

IIElevenLabs webinar on AI agents in financial services, hosted by four professionals.


Przeglądaj artykuły zespołu ElevenLabs

Twórz z najwyższej jakości audio AI