Wdrażanie GenAI, uporządkowana wersja
Czyli jak w idealnym świecie powinien wyglądać ten proces.
Jak wdrożyć GenAI w firmie, która nie jest stricte technologiczna?
W przypadku firm z własnym dużym działem IT i własnym działem badawczo-rozwojowym, wdrażanie GenAI jest dość proste, bo wszystko ogarniają pasjonaci, którzy tej technologii używali jeszcze przed opublikowaniem serwisu ChatGPT. Właśnie dlatego duże korporacje przodują we wdrożeniach - cały proces zadział się zazwyczaj bez istotnej ingerencji zarządów.
W mniejszych firmach, którym nie jest dane zatrudniać entuzjastów nowinek technologicznych i które nie mają naturalnego miejsca do eksperymentowania z nimi, procesem wdrożenia trzeba odpowiednio zarządzić. I dziś chcę omówić jakie etapy ten proces powinien zawierać. Jest to przearanżowany i bardziej uporządkowany opis tego, co pisałem już wcześniej.
Za każdym razem jak piszę “firma” w tym tekście, mam na myśli wyłącznie firmy spoza branży technologicznej, które nie mają dużego działu IT oraz działu R&D.
Etap 1: zderzenie z rzeczywistością
Obraz wyłaniający się z doniesień medialnych, blogów technologicznych czy prac badawczych pokazujących możliwości generatywnej sztucznej inteligencji powinien być skonfrontowany z rzeczywistością problemów z wdrożeniem, ograniczeń technologii, naturalnych przeszkód (w tym psychologicznych) i ryzyk związanych z adopcją GenAI. Najprostszym sposobem jest spotkanie zarządu i kadry kierowniczej z ekspertem lub grupą ekspertów i weryfikacja swoich oczekiwań i założeń z prawdziwym stanem GenAI na dziś.
Taki ekspert powinien ocenić:
Czy firma ma wystarczająco dobre procesy obiegu artefaktów cyfrowych, żeby wdrożenie GenAI przyniosło wymierne korzyści? Próg wejścia wcale nie jest wysoko, ale jeśli jest to firma np. prawnicza lub księgowa (która z założenia pracuje na dokumentach w różnej postaci) i nie ma wdrożonego systemu obiegu dokumentów (wszystko siedzi w mailach), to nawet GenAI nie pomoże na taki bałagan.
Czy firma ma chociaż podstawowe rozumienie bezpieczeństwa danych, inspektora danych osobowych i inne procedury, które zabezpieczają firmę przed nieautoryzowanym rozlewem informacji na lewo i prawo? Wydaje się to dość oczywistym wymaganiem, ale zaskakująco duży odsetek firm nawet średniego rozmiaru prowadzonych jest jak jednoosobowa działalność gospodarcza…
Czy firma ma kulturę organizacyjną, która pozwala na eksperymentowanie? Jeśli zarząd pyta o “gwarancje”, a nie o “zarządzanie ryzykiem”, to dość oczywiste, że pomyłki, nawet drobne, tolerowane nie są.
Jak znaleźć takiego eksperta? Możecie odpowiedzieć na tego maila (chętnie pomożemy), albo poszukać na rynku używając następującej heurystyki:
warunek ogólny: jeśli ekspert nie jest w stanie podać przykładu wtopy biznesowej związanej z wdrożeniem technologii, którą sprzedaje i wyjaśnić, dlaczego do niej doszło - szukaj dalej
warunek szczegółowy: jeśli ekspert zaczyna rozmowę od “możemy wytrenować Państwu dedykowany model” - szukaj dalej
warunek szczegółowy: jeśli ekspert twierdzi, że da się GenAI zastosować w sposób, który nie wymaga nadzoru, weryfikacji, albo dodatkowych punktów kontroli - szukaj dalej
Po pierwszym etapie zarząd powinien dysponować podstawowym rozumieniem do czego się da i nie da użyć generatywnej sztucznej inteligencji i być w stanie odpowiedzieć sobie na pytanie “próbujemy GenAI czy jeszcze nie?” używając racjonalnych argumentów.
Etap 2: grzybobranie, a nie szukanie Świętego Graala
W poprzednim mailu pisałem, że dostaliśmy technologię o niespotykanej dotychczas elastyczności i bardzo niskim koszcie dostosowania do konkretnych potrzeb. Ale wdrożenie jej wymaga tej samej elastyczności w podejściu.
Jak firma kupuje np. Grammarly, albo Sharepointa, albo oprogramowanie do zarządzania mediami społecznościowymi, to język korzyści jest dość jasny. W przypadku generatywnej sztucznej inteligencji, konkretne korzyści każda firma znajduje sama. Bo oczywiście może kupić automat z półki do generowania postów na LinkedIn, które poprawią jej widoczność i być może wygenerują nowe leady. Ale co jeśli firma chce, żeby nie były one generyczną papką, a dotyczyły przede wszystkim jej usług lub produktów? A co jeśli potrzebne jest specjalistyczne słownictwo, którym domyślny model językowy nie operuje swobodnie, albo trzeba go podprowadzić? Tak czy siak, firma nie uniknie eksperymentowania.
Ten etap nazywam grzybobraniem, bo nie chodzi o znalezienie jednego cudownego zastosowania GenAI, które rozwiąże wszystkie problemy biznesowe danej firmy, a o znalezienie wielu małych przykładów, gdzie ta technologia oszczędza 5-15 minut dziennie. Albo przyspiesza proces, który trwa miesiąc o jeden dzień. Nisko wiszące owoce. Jeśli chcecie zobaczyć, jak o tym procesie opowiada Microsoft, polecam obejrzeć krótką opowieść Kathleen Hogan, Executive Vice President i Chief People Officer.
I na tym etapie eksperymentują pracownicy - odbiorcy technologii, a nie zarząd. Ponadto, dobrze przeprowadzone eksperymentowanie będzie skupiało się na procesach, a nie narzędziach.
Ta faza może, ale nie musi zadziać się z zewnętrznym wsparciem. Generalnie im większy opór pracowników lub niższe kompetencje techniczne, tym bardziej katalizowanie tego procesu przez eksperta z zewnątrz się przydaje. Heurystyka szukania eksperta - jak wyżej.
Efekty tego etapu trafiają do zarządu i ten podejmuje decyzję “go” albo “no-go”. I znowu ma do tego racjonalne argumenty.
Etap 3: polityka AI i otoczenie prawne
Załóżmy, że grzybobranie się powiodło - zarząd ma w koszyku całe mnóstwo sensownych biznesowo propozycji zastosowania generatywnej sztucznej inteligencji w danej firmie. Zapadła decyzja: jedziemy.
I niestety, oprócz eksperta technologicznego, trzeba w tym momencie zawołać prawnika.
Otoczenie prawne GenAI jest nietrywialne. Są regulacje dotyczące stricte AI (EU AI Act), są regulacje przyległe (RODO), są nierozwiązane do końca kwestie praw autorskich (generowanie obrazów), są kwestie odpowiedzialności za wygenerowane treści (przypadek Air Canada). I pewnie jeszcze kilka innych ryzyk, które wypadałoby położyć na stole i ocenić, czy warto nimi zarządzić w tej chwili.
Wyniki eksperymentów z drugiego etapu powinny być skonfrontowane z ograniczeniami prawnymi i skondensowane w wewnętrzny dokument “polityka AI”. Taki dokument nie zawiera wyłącznie ogólników pt. “używamy AI etycznie”. Zawierać powinien np. wskazówki, że danych osobowych nie wrzuca się do AI. Albo informacje o obszarach zastosowania AI w firmie i obszarach wyłączonych (ze względu na ryzyka). Albo reguły, że obrazy wygenerowane przez AI nie mogą zostać opublikowane bez ingerencji grafika.
Brak takiego dokumentu powoduje, że zarówno zarząd jak i pracownicy wciąż działają jak dzieci we mgle. Jeśli firma bardzo chce powtórzyć historię Air Canada, tj. wdrożyć GenAI, przegrać głośno sprawę w sądzie, i w konsekwencji wycofać się z wdrożenia, proszę bardzo. Nikt jej nie zabroni. Ale powinno być dla Was jasne, że gdyby taki dokument był przygotowany, firma Air Canada mogłaby uniknąć bycia spektakularnym przykładem złego wdrożenia GenAI ;)
Jak szukacie prawników, którzy rozumieją GenAI, to pewnie będę mógł kogoś polecić dobranego do wielkości Waszej firmy.
Etap 4: czempioni AI
Jeśli firma nie ma dedykowanych działów IT i R&D, to brakuje jej osób, które będą motorem napędowym zmian. Takich, które będą miały spore kompetencje techniczne, ale jednocześnie będą rozumieć na czym polega biznes danej firmy.
Można zaprosić firmę technologiczną (z kompetencjami zarządzania zmianą) do współpracy. Jeśli uda się uwspólnić oczekiwania biznesowe obu stron, to może nawet się tu udać. Ryzyko jest dość oczywiste - brak transferu wiedzy do środka organizacji, wszystko wisi na tym partnerstwie.
Można zatrudnić CTO, nawet na część etatu. To popularne rozwiązanie w USA w ostatnich latach. Ma podobnie długi rozbieg jak rozwiązanie powyżej (partner/CTO musi nauczyć się branży). Trzeba jednak pamiętać o tym, żeby wiedza technologiczna dyfundowała poza CTO, co nie zawsze się dzieje.
Natomiast jest też rozwiązanie, które wydaje się sprawdzać szczególnie dobrze w tym konkretnym kontekście, to jest rozwój indywidualnie wyselekcjonowanych pracowników do roli liderów z zakresie wdrażania i zarządzania GenAI. Nazywamy ich “czempionami AI” (koncept wymyślił Microsoft i w taki sposób wdrożył AI u siebie na gigantyczną skalę).
Czempion AI objęty powinien być programem mentoringowym z udziałem partnera technologcznego. Taki program musi zawierać zarówno komponenty merytoryczne (narzędzia GenAI, metody pracy, ograniczenia, itd.) jak i komponenty psychologiczne (zarządzanie zmianą, opór współpracowników, źródła strachu). W ten sposób dochodzi do transferu wiedzy z zewnątrz do środka organizacji, a rozwiązania AI są generowane bardzo blisko specyficznych potrzeb firmy. Ale jednocześnie, wdrażanie GenAI zachodzi spokojnie, bez niepotrzebnych napięć i sabotażu ze strony pracowników, którzy czują się zagrożeni.
Podejście “czempioni AI” nie powoduje, że efekty pojawiają się szybciej. Są za to lepsze i trwalsze.
Jakby ktoś pytał, mamy taki program mentoringowy w ofercie, póki co jako jedyni na polskim rynku.
Kilka dodatkowych przemyśleń
Cały ten proces będzie trwał minimum kilka miesięcy. Żeby zacząć biegać, trzeba nauczyć się chodzić.
Zwróćcie też uwagę, że nigdzie nie piszę o zatrudnianiu inżynierów AI, a o zewnętrznych partnerach technologicznych. Uważam, że do momentu, kiedy firma wewnętrznie posiada kompetencje, które pozwalają jej współpracować z dostawcami technologii na równym poziomie wiedzy, nie ma mowy o zatrudnianiu specjalistów w roli innej niż zarządczej (np. CTO wymieniony wyżej).
Tego rodzaju ścieżka przygotowuje firmę głównie pod stosowanie GenAI wewnętrznie, ale nie jest wystarczająca do tego, żeby tworzyć usługi oparte o tę technologię i oferować je klientom. Transformacja z firmy nie-technologicznej w technologiczną (nawet w ograniczonym stopniu) jest mocną ingerencją nie tylko w procesy biznesowe, ale także w strukturę organizacyjną firmy. Założenie, że skoro udało mi się poskładać prostą aplikację z użyciem ChatGPT to mogę ją oferować na rynku dla swoich klientów jako dodatek do głownej usługi czy produktu, często kończy się poważnymi problemami (np. wyciek danych).
Ciekawe niusy
Na wczorajszej konferencji firma Apple ogłosiła szereg rozwiązań opartych o generatywną sztuczną inteligencję, nazwanych (z rozmachem marketingowym właściwym tej firmie) AI - Apple Intelligence. Wśród zaanonsowanych narzędzi były:
podsumowywanie tekstu
generowanie i edycja obrazów
nagrywanie i transkrypcja połączeń i wideokonferencji
integracja aplikacji Apple, tak aby mogły ze sobą “rozmawiać” (Siri na sterydach i możliwością sterowania aplikacjami)
Te rozwiązania oparte będą o własne modele firmy Apple oraz o rozwiązania… OpenAI.
Apple jest bardziej świadomy kwestii bezpieczeństwa danych, więc sporo na konferencji było o prywatności i zabezpieczeniach (nowa architektura nosi nazwę “Private Cloud Compute” z brakiem możliwości np. dostępu do przetwarzanych danych przez samą firmę Apple).
Microsoft tę samą kwestię bezpieczeństwa danych potraktował dużo lżej kilka tygodni temu. Funkcja Recall, która ma być dostępna w nowych komputerach Copilot+, robi zrzuty ekranu co kilka sekund do dalszej analizy przez algorytmy generatywnej sztucznej inteligencji, m.in. po to, żeby zrobić podsumowanie tego co się robiło, albo wrócić do jakiejś aktywności. Natomiast nie ma tam wymyślnych zabezpieczeń - pliki zdjęć są szyfrowane na dysku komputera, bez audytu dostępu i weryfikacji, że kluczowe dane nie wyciekły. Pod naciskiem ekspertów ds. cyberbezpieczeństwa usługa Recall w tych nowych komputerach została zmieniona na opcjonalną, zamiast zawsze włączoną.
Mimo zapewnień o prywatności, nie wszyscy potraktowali integrację modeli od OpenAI z urządzeniami Apple jako wystarczająco bezpieczną:
Dyskusja nt. prywatności jeszcze się nie skończyła.