visual-dlaczego-tak-zle-wdraza-sie-ai-w-enterprise
Chcesz porozmawiać z autorem artykułu?
Skontaktuj się z nami
Banki/
Branża Finansowa/
Rynek Kapitałowy

Pigułka na zbiorową amnezję, czyli dlaczego tak źle wdraża się AI w enterprise

Zarządzanie wdrażaniem nowych technologii rozwijało się przez ostatnie 15–20 lat, aż przy generatywnej AI cofnęliśmy się do 2000 roku. Oddaliśmy stery inżynierom, nie łączymy ich w zespoły z osobami o kompetencjach biznesowych, UX i metodycznego zarządzania. Dlatego 95% wdrożeń AI kończy się porażką.

Na początku wieku decyzje o wdrożeniu systemu IT podejmowało się w oparciu o obiecywane oszczędności, bo IT miało przyspieszyć pracę i zastąpić wiele dotąd ręcznie wykonywanych zadań.

Zarządzanie było najczęściej kaskadowe. Decydenci musieli dostać spisane efekty, tworzono opasłe architektury oraz opisy funkcjonalności, budżety i harmonogramy, które jako bazowe nigdy nie wytrzymywały próby czasu. Dawało to złudne poczucie kontroli ryzyka.

W 2000 roku pękła bańka połączenia internetu i IT, a za nią nastąpił sensowny zwrot. W 2021 ogłoszono Manifest Agile, a firmy zaczęły wdrażać software zwinnie. Później Design thinking pozwolił postawić wartość dla użytkownika w centrum ustalania zakresu, a sam zakres szybko i tanio walidować oraz poprawiać w locie. Kontrolę ryzyka przejęły procesy związane z doświadczeniem użytkownika.

Doświadczenie się projektuje

W biznesie opartym o cyfrowe kanały wygrywał ten, kto w bardziej przystępny sposób dopasował komunikat i usługę — co stworzyło dziedzinę projektowania UX.

Kolejne fale technologicznych zwrotów, takie jak mobile, IoT, Big Data czy machine learning, menedżerowie wykorzystywali w celu coraz lepszej odpowiedzi na potrzeby klientów lub pracowników, a nie oszczędności na ludzkich etatach. Polem konkurencji było doświadczenie, a przystępność nowych technologii skracała ścieżkę ich adaptacji przez użytkowników.

W 2022 roku odkryliśmy genAI zamknięty w przystępnym produkcie. W żadnej innej technologii przyrost użytkowników nie był tak szybki jak w przypadku ChatGPT, 100 mln w 2 miesiące.

Reagowanie na instrukcje pisane językiem naturalnym dzięki sieciom neuronowym oraz udzielanie odpowiedzi przez modele językowe OpenAI zamknięto w znanym z komunikatorów interfejsie chata. Nie musieliśmy już myśleć jak wyszukiwarka po bazach danych, a zaczęliśmy wchodzić w dialog z bazą wiedzy.

Hype AI i szukanie oszczędności

Rewolucję technologiczną firmy z poziomu enterprise postanowiły jednak wdrażać w metodycznej amnezji. Znowu wróciło pytanie o oszczędności, najczęściej liczone etatami, a za odpowiedź wzięli się szybko nadrabiający wiedzę inżynierowie IT.

Przez ostatnie 2–3 lata dominowały dwa modele wdrażania AI:

  • oparte o hype: szybka i szeroka implementacja gotowych produktów, które obiecywały zbyt wiele. Wierzyliśmy w deklaracje, że technologia w końcu dorówna obietnicom;
  • oparte o założenia techniczno-finansowe: punktowe wdrożenia, których założenia rozpadały się na etapie pierwszych testów z użytkownikami i lądowały w czyśćcu pilotów AI.

Optymalizacja a obsługa wielu przypadków

Wspólną cechą obu podejść była optymalizacja kosztowa. Optimum wyliczano czysto finansowo, jako punkt pomiędzy kosztami a zakładanymi oszczędnościami. Tylko w ten sposób dało się policzyć ROI. Dawało to poczucie kontroli ryzyka (jak 25 lat temu).

Optymalizacja przez wybór jednego doświadczenia

W tym równaniu nie ma użytkownika. Nie ma jego potrzeb, oczekiwań ani powodów, dla których miałby przejść z dotychczasowych ścieżek dochodzenia do wartości na te oparte o AI. Są za to potrzeby, których się nie obsługuje, bo są wyjątkami.

Optymalizacja finansowa zrównuje wszystkich użytkowników do jednego wzorca i narzuca im, czego mogą oczekiwać. A przecież AI może obsłużyć wiele potrzeb naraz. Tylko pod warunkiem właściwego przygotowania projektu wdrożenia.

Lekcję budowania przewagi dzięki technologii możemy brać od challengerów wobec wielkich, zoptymalizowanych usługodawców. Fintechy są dobrym przykładem dla branży bankowej i finansowej.

Challenger, aby rzucić wyzwanie, nie stosuje innego punktu optimum. Zamiast tego zajmuje się przypadkami niewystarczająco dobrze obsłużonymi, bo przy wyliczaniu optimum były wyjątkami.

Dlaczego fintechy projektują, a banki optymalizują?

Wyjątki nie potwierdzają reguły. Tworzą z niej osobne przypadki.

Revolut zaczął od transakcji międzynarodowych i wskoczył na falę trendu mobile oraz podróżujących millenialsów. Świetnie zaprojektowane doświadczenie w aplikacji i fizyczne karty przyciągnęły masę klientów, którym firma mogła oferować kolejne usługi z długiego ogona, mniej atrakcyjne dla dużych banków. Skala rosła, aż Revolut sam stał się dużym bankiem.

Innym przykładem jest Klarna, która przejęła przypadki kredytowania małych, nieatrakcyjnych dla banków kwot. Dla klientów banków obciążenie skomplikowanym procesem kredytowym nie było warte wysiłku przy zakupach internetowych.

Klarna w przystępny sposób zniosła barierę kapitału i pozwoliła w e-commerce kupować od razu, a spłacać później. Młodych na dorobku nie traktowała jako mało atrakcyjnych klientów, lecz jako główną grupę, do której kierowała lifestyle’ową komunikację, bliższą sklepom e-commerce niż bankom.

Klarna

Co obsługa wielu przypadków oznacza w AI?

Ta sama Klarna już jako dojrzała firma w AI weszła all-in. Przed debiutem giełdowym w latach 2024–2025 firma zaczęła ciąć koszty obsługi klienta, przenosząc ją do agentów opartych o rozwiązania OpenAI. W pierwszym miesiącu AI obsłużyło ponad 2 mln rozmów.

Systemy nie były gotowe na skomplikowane rozmowy o zróżnicowanych potrzebach klientów. Optimum ustawiono na automatyzację najczęstszych przypadków, a „optymalny” ton rozmowy nie pasował do emocji związanych z niestandardowymi zdarzeniami i pieniędzmi klientów.

CEO Sebastian Siemiatkowski publicznie przyznał, że nadmierne skupienie na cięciu kosztów obniżyło jakość doświadczenia klienta, dlatego plan ratunkowy objął nie tylko technologię, lecz także CX, UX i biznes.

Klarna wdrożyła podejście hybrydowe. Systemy triażu najpierw identyfikowały potrzebę i przypadek klienta, a następnie kierowały go do właściwego asystenta AI lub, przy złożonych sprawach, do człowieka. Dziś nie ma jednego optimum, jest model maksymalizacji wartości dla różnych grup klientów.

Pracownik w centrum AI

55% firm żałuje redukcji zatrudnienia na fali hype AI i przywraca obsługę przez ludzi. Rzadko jednak na tych samych etatach. Straty wynikające ze źle zaplanowanych wdrożeń były zbyt duże, mimo że dostawcy wciąż powtarzają obietnice przyszłych oszczędności. Zamiast szkolić pracowników, firmy szukają ich w krajach o niższych kosztach pracy lub outsourcują zatrudnienie do czasu wydajności AI, która może nigdy nie nadejść.

Morgan Stanley wszedł w partnerstwo z OpenAI inaczej niż Klarna. Zamiast przenosić zamożnych klientów do agentów AI, postawił na wzmocnienie ludzkich doradców technologią.

Precyzyjnie zaplanowana architektura oparta o RAG i agentów dała doradcom narzędzia do natychmiastowej obsługi różnych przypadków.

System “zassał całą wiedzę”, od compliance i procedur, po informacje o rynku i kliencie. Doradca zamiast przerywać rozmowę, może natychmiast dostać odpowiedź w chacie i z empatią przekazać ją klientowi w tej samej rozmowie.

Metryki wartości - ROX (return of experience) zamiast ROI (return of investment)

Wyjątkowe w tym wdrożeniu były metryki. Decyzje nie opierały się na wynikach technicznych, lecz na doświadczeniu klientów banku.

Testy polegały na porównywaniu odpowiedzi doradców z odpowiedziami agentów AI. Te drugie były szybsze i bardziej kompleksowe. Dało to zielone światło na przejście z pilota na produkcję. Dziś systemu używa 98% zespołów doradców.

Tabela porównanie wskaźników ROI ROX

Produkty AI dla bankowości i finansów z użytkownikiem w centrum

W e-point przy technologiach AI zachowujemy ciągłość metodologiczną: uwzględniamy kwestie finansowe, ale na pierwszym miejscu stawiamy potrzeby użytkowników systemu, czyli pracowników i klientów.

Jednym z naszych produktów jest chat, który umożliwia swobodną rozmowę o potrzebach klientów, przy zachowaniu wiedzy produktowej i compliance. Przystępność rozwiązania zwiększamy, dopasowując także formę odpowiedzi — nie tylko tekstową, lecz również graficzną.

Pryncypia projektowania użytecznych i wartościowych produktów stosujemy również przy Asystencie doradcy opartym o RAG. Każdy projekt wdrożenia zaczynamy od analizy workflow, dostępnych danych oraz przypadkach klientów, dla których AI ma przygotować odpowiedź. Włączamy też od samego początku w proces compliance, bezpieczeństwo i governance, aby wypracowywać z nimi rozwiązania i unikać zmian, gdy już produkt jest w fazie pilotażu.

Doradztwo AI według metodyki 3C AI

Klient w centrum, oraz compliance i cybersecurity to podstawy naszej metodyki pracy 3C AI. A wykorzystujemy ją w 3 rodzajach usług:

  • AI Discovery - gdy poszukujemy rozwiązań opartych o AI, aby realizowały cele biznesowe, ale nie wpadały w pułapki optymalizacji kosztowej
  • AI Machinery - gdy projektujemy całą architekturę rozwiązania, nie zatracając wielu przypadków, które musi obsłużyć
  • AI Recovery - gdy w projektach wewnętrznych, których założenia szybko przestały się realizować opracowujemy plan naprawczy, który ma doprowadzić do oczekiwanej wartości wdrożenia

Dowiedz się więcej o naszym autorskim podejściu. Sprawdź, jak możemy zbudować bezpieczną przewagę konkurencyjną Twojej firmy.

Umów się na konsultację z naszym ekspertem