O czym pisałem w ostatnim miesiącu?
Ostatni miesiąc upłynął na omawianiu kwestii taktycznych i strategicznych, jeśli chodzi o wdrożenia generatywnej sztucznej inteligencji. Na przykładzie działów HR omówiłem jakie błędy popełnią firmy wdrażając GenAI, posiłkując się przykładami z data science i “wczesnego AI”. Błąd nadmiernego technooptymizmu jest równie częsty, jak nadmiernego technopesymizmu - apelowałem w innym poście o rozsądek (wiem, czekaj tatka latka).
Wdrażanie GenAI wymaga również pewnych metaumiejętności, jak na przykład eksperymentowania, lub umiejętności żonglowania schematami myślowymi, żeby lepiej zrozumieć głębokość instrukcji potrzebnej do wykonania danego zadania.
Sporo też czasu spędziłem na omawianiu raportów wszelkiego rodzaju, które dotyczyły głównie generatywnej sztucznej inteligencji. Na podstawie listy ponad 5000 nowych narzędzi GenAI z portalu Bena Tossella, zrobiłem analizę trendów postrzegania świata AI przez deweloperów. Rok temu rynek nowych aplikacji AI zaczął się stabilizować i rozpoczęły się poszukiwania rozwiązań produktywnych, a nie modnych. Przejrzałem też raport na temat użycia technologii takich jak ChatGPT w edukacji pod kątem lekcji, które można zastosować w biznesie. Nie bez satysfakcji pastwiłem się również nad raportem EY, który mieszał generatywną AI z jej niegeneratywną wersją ogłaszając niesamowite odsetki “wdrożeń AI” w firmach. Profesjonalna produkcja FOMO.
Na podstawie feedbacku od klientów opisałem bardziej uporządkowany proces wdrażania generatywnej sztucznej inteligencji - wydaje mi się, że jesteśmy jednymi z nielicznych, którzy do transformacji GenAI w firmach podchodzą w sposób, który systematycznie adresuje ryzyka finansowe, operacyjne i prawne.
Niusy technologiczne a ceny “inteligencji”
Chciałbym dziś podkreślić silny trend, do którego często nawiązuję wskazując na nowinki technologiczne.
Bo owszem, możliwości generatywnej sztucznej inteligencji rosną. Nie ma sensu spekulować, gdzie jest sufit, ale wygenerowane teksty, muzyka czy wideo są coraz lepsze i w wielu obszarach zaczynają być porównywalne z efektami zadań wykonywanych przez doświadczonego pracownika (zwróćcie uwagę, że piszę o efektach “zadań”, a nie “pracy” - to drugie trudniej ocenić).
Natomiast istnieje równoległy trend, który dotyczy optymalizacji obliczeniowej algorytmów GenAI. Koszt obliczeniowy per umowna jednostka “kompetencji” systematycznie spada. Ceny wygenerowania tekstu wysokiej jakości spadły o dwa rzędy wielkości w 2-3 lata. Podobnie jest z generowaniem obrazów, rozpoznawaniem i generowaniem mowy. W niektórych przypadkach można modele AI uruchomić na zwykłym firmowym/domowym komputerze, co oznacza spadek kosztów o kolejne dwa rzędy wielkości.
Otwarte modele, które udostępnia już dużo firm (Meta, DeepSeek, Microsoft, Nvidia) są poddawane (za ułamek kosztów wytrenowania od podstaw) dalszej optymalizacji i dotrenowywaniu pod konkretne zastosowania. Próg wejścia jako dostawca jest niski. Modele, zgodnie z przewidywaniami Marka Zuckerberga, nie są produktem samym w sobie. Ich możliwości za chwilę będą dostępne po cenach głównie dyktowanych przez cenę energii, a nie infrastruktury obliczeniowej.
Cena umownej “inteligencji” spada na łeb, na szyję.
Szacunki zwrotu z inwestycji w GenAI łatwo przeszacować w górę (zbyt optymistyczne estymaty oszczędności czasu/przyspieszenia procesów) lub w dół (założenie o stałości ceny). Jeśli Wasza prognoza zwrotu z inwestycji w tę technologię nie uzasadnia decyzji o wdrożeniu, zróbcie eksperyment myślowy i podzielcie szacowane koszty przez 10. Jeśli wciąż się nie opłaca, to pewnie źródłem nieopłacalności nie jest cena technologii, tylko jej możliwości albo specyfika procesów w danej firmie. Natomiast, jeśli po zmniejszeniu kosztów wdrożenie staje się opłacalne, to prawdopodobnie koszty nie uwzględniają presji cenowej na dostawców AI.