Mały model językowy a przemysł
Dosłownie godzinę temu skończył się webinar “Bielki z przemysłem”, który zorganizowała Platforma Przemysłu Przyszłości, a który miałem zaszczyt moderować. W wydarzeniu wzięli udział Sebastian Rynkiewicz reprezentujący klaster firm branży metalurgicznej oraz Maciej Szymański i Paweł Kiszczak, współtwórcy modelu Bielik, o którym niedawno pisałem. Nagranie tego wydarzenia wkrótce powinno pojawić się w sieci - jak będę znał link, to napiszę w którymś z kolejnych maili.
Wydarzenie było dość niezwykłe i ukłon w stronę Roberta Kroplewskiego z FPPP, który odważył się zaryzykować zderzenie poglądów dwóch bardzo dalekich branż. Bo przecież branża metalurgiczna nie jest najbardziej oczywistym kandydatem dla wdrożeń spekulatywnej sztucznej inteligencji. Dlaczego?
Większość firm, łącznie z największymi na świecie, nie ma dużego doświadczenia we wdrażaniu technologii, która może się mylić - technologii o tak wielkiej elastyczności, a jednocześnie niepodlegającej pełnej kontroli. Nie mamy wypracowanych dobrych praktyk ani heurystyk. Co więcej, jak powtarza Ethan Mollick, kompetencje modeli generatywnej sztucznej inteligencji charakteryzują się "poszarpaną granicą" - świetne wyniki w zadaniu A wcale nie gwarantują podobnej skuteczności w zadaniu B, nawet w obrębie tej samej firmy. Każdy przypadek wymaga indywidualnego przetestowania.
Mimo że technologia jest dostępna na rynku od kilku lat, wciąż brakuje sprawdzonych dobrych praktyk i oczywistych ścieżek wdrożenia. Dlatego jeszcze przez jakiś czas firmy nietechnologiczne nie będą mogły po prostu kupić gotowych rozwiązań AI - będą musiały je wypracować samodzielnie.
I dużo łatwiej to sobie wyobrazić w przypadku firm, które w naturalny sposób operują głównie na artefaktach cyfrowych - dokumentach, historiach transakcji, raportach, itd. A jak to wygląda z poziomu branży, która głównie operuje na atomach a nie bitach?
Zaskakująco pozytywnie.
Pierwszym zaskoczeniem była otwartość firm z branży reprezentowanej przez Pana Rynkiewicza, na eksplorację i eksperymentowanie. Opowiadał on o projektach wdrożeniowych różnych technologii IT w przemyśle, w tym o przypadku gdzie okres od momentu implementacji do uzyskania satysfakcjonujących wyników - obejmujący testowanie i optymalizację - wyniósł aż 22 miesiące. To świadczy o wyjątkowo wysokim poziomie zaufania do systemu i jego dostawcy - trzeba mieć niezachwianą wiarę, by przez niemal dwa lata nie widzieć efektów swojej inwestycji i cierpliwie czekać na ich pojawienie się. Trudno mi sobie wyobrazić taką determinację w branży… nie wiem, ecommerce na przykład.
Drugim zaskakującym elementem było to, że obie strony dyskusji, niezależnie od siebie, przedstawiły bardzo podobną wizję idealnej ścieżki wdrażania sztucznej inteligencji w systemach biznesowych. Niezależnie czy nazwiemy to pilotażem czy eksperymentowaniem, zarówno przedstawiciel przemysłu jak i przedstawiciele branży IT mówili właściwie o tym samym procesie - metodzie małych kroków, nisko wiszących owoców, warsztatach/hackatonach.
Trzecie zaskoczenie pojawiło się, gdy zapytałem panelistów o najczęściej spotykane błędne przekonanie dotyczące wykorzystania technologii informatycznych, a szczególnie sztucznej inteligencji, które musieli korygować. Obie strony, bez wahania, wskazały dokładnie to samo: przekonanie biznesu, że ta technologia jest magicznym pudełkiem, które automatycznie rozwiąże wszystkie problemy.
Okazuje się, że branża IT i branże produkcyjne mogą mieć wiele wspólnego - trzeba tylko zacząć rozmawiać.
Podsumowanie miesiąca
Spis podsumowań poszczególnych miesięcy:
Pierwszy miesiąc (ogólne wprowadzenie do technologii)
Drugi miesiąc (głównie proste zastosowania biznesowe)
Trzeci miesiąc (trochę analiz danych własnych i cudzych raportów)
Czwarty i piąty miesiąc czyli wakacje (ciekawe narzędzia, metakompetencje i trochę o adopcji AI)
Szósty miesiąc (decyzje strategiczne i analizy biznesowe w kontekście AI)
Siódmy miesiąc pisania tego newslettera upłynął pod znakiem:
próby uporządkowania zastosowań generatywnej sztucznej inteligencji pod kątem doboru interfejsu oraz podziału zadań na w pełni automatyzowalne i z nadzorem człowieka - może spróbuję w najbliższym newsletterze zrobić z tego mapę, która ułatwi dobór narzędzia do potrzeb
omawiania wyników badań stronniczości modeli językowych - pokazałem, że modele są wrażliwe nawet na pojedyncze słowo w instrukcji oraz, że pomimo dużej ilości pracy włożonej w usunięcie stronniczości z modeli, wciąż jest ona zauważalna
kolejnych przykładów dotyczących tego, że w wielu przypadkach nauka pisania “promptów” to nie jest coś, w co powinno się angażować całą firmę - pokazałem jak można wygenerować instrukcję dla modelu używając dokumentu docelowego jako przykładu
analizy kryteriów wyboru “małych/lokalnych” vs “dużych chmurowych” modeli językowych