Szósty miesiąc, czyli pół roku za nami
Spis podsumowań poszczególnych miesięcy:
Pierwszy miesiąc (ogólne wprowadzenie do technologii)
Drugi miesiąc (głównie proste zastosowania biznesowe)
Trzeci miesiąc (trochę analiz danych własnych i cudzych raportów)
Czwarty i piąty miesiąc czyli wakacje (ciekawe narzędzia, metakompetencje i trochę o adopcji AI)
Szósty miesiąc pisania newslettera to znowu dużo tematów dla kadry zarządzającej firmami nietechnologicznymi. Na początek, o motywacjach do wdrożenia AI:
pisałem o tym, żeby nie dać się nabrać na “lśniące demo”, przy podejmowaniu decyzji o wdrożeniu AI
próbowałem odpowiedzieć również na pytanie “po co” spekulatywna AI w firmie
argumentowałem, na przykładzie grupy PL/AI, że jeśli Wasz partner technologiczny, nie zadaje Wam dobrych pytań o potrzeby biznesowe, to rozmawiacie za mało
W temacie samego wdrożenia pisałem również o:
wiedzy niejawnej i brakujących SOPach w firmach, które będą przydatne do instruowania modeli językowych
różnicach pomiędzy “starym AI” (modelami predykcyjnymi) a “nowym AI” (modelami generatywnymi) i o tym, żeby nie mieszać obydwu
czempionach AI i “AI officerach”, czyli o rolach pomocnych we wdrożeniu
Siedem przykazań korzystania z AI
Standardowe zastrzeżenie widoczne drobną czcionką na stronie ChatGPT to: “ChatGPT może robić błędy. Sprawdź kluczowe informacje”.
Tom Bielecki na Twitterze/X zaproponował rozszerzoną wersję, która bardzo mi się spodobała, więc pozwolę sobie ją przetłumaczyć (nazwijmy ją Siedmioma Przykazaniami korzystania ze spekulatywnej sztucznej inteligencji):
Uwaga - AI może dostarczać nieprawdziwych informacji z dużą dozą pewności. Zawsze weryfikuj istotne informacje u źródeł.
Efektywność AI może się zmieniać - przeformułowanie pytania może przynieść różne wyniki, więc rozważ zadanie tego samego pytania w różnych formach dla ważnych zadań.
AI jest nieodpowiedni do podejmowania ważnych decyzji: niezawodność tego systemu nie została w pełni ustalona, więc nie używaj do podejmowania decyzji medycznych, prawnych lub finansowych bez nadzoru eksperta.
Nieoczywiste ograniczenia AI: ten system może mieć trudności z zadaniami, które wydają się proste dla ludzi. Nie zakładaj wyższej dokładności w przypadku pozornie prostych pytań.
Ostrzeżenie przed nadmiernym zaufaniem: AI rzadko wyraża wątpliwości, ale brak wątpliwości nie oznacza prawdziwości podawanych twierdzeń.
Wymagana weryfikacja przez człowieka: w przypadku ważnych zadań wyniki powinny być sprawdzone przez kompetentnego eksperta.
AI to technologia ewoluująca: możliwości i ograniczenia tego systemu mogą zmieniać się z czasem. Regularnie przeglądaj wytyczne dotyczące użytkowania, aby być na bieżąco z aktualizacjami.
Lista Toma podoba mi się dlatego, że w skrótowy sposób opisuje nasze główne błędy poznawcze podczas korzystania z AI: antropomorfizację (np. nadmierne zaufanie do wyników działania modelu, bo potrafi je przekonująco uzasadnić), czy ekstrapolację (np. tendencję do uznania, że model coś “umie” z pozytywnych doświadczeń w czymś podobnym).
Oczywiście nie mam złudzeń, że tego rodzaju lista cokolwiek zmieni, ale jakiś jej ekwiwalent powinien się znaleźć w wewnętrznej polityce AI firmy. Jest na tyle skrótowa, że nie zajmie dużo miejsca, a jednocześnie adresuje podstawowe źródła nieporozumień, podczas wdrażania tej technologii.
Ciekawe niusy
Firma Anthropic udostępniła ostatnio dość techniczny raport nt. tego, w jaki sposób pracują z dokumentami w interfejsie ClaudeAI, a konkretnie podała opis i benchmarki skuteczności własnego algorytmu znajdowania fragmentów dokumentów, które pasują do pytania użytkownika (chodzi o technikę znaną pod nazwą RAG - Retrieval-Augmented Generation).
To jest jeden z liderów w świecie AI, a i tak średnio w jednym przypadku na trzydzieści informacja, która jest w dokumentach nie zostanie odnaleziona.
Jeśli kojarzysz frustrację z używania wyszukiwarek internetowych (Google), gdzie wiesz, że informacja na pewno gdzieś jest w sieci, ale na pierwszych kilku stronach wyników nie można jej odnaleźć - to to samo.
Wyszukiwanie informacji to trudny i nie do końca rozwiązany problem.