Suma wszystkich strachów (wersja AI)
O mitach i nieporozumieniach dotyczących zagrożeń związanych z GenAI
Dzisiejszy email zainspirowany jest wykładem (który miałem wątpliwą przyjemność oglądać) dla biznesu dotyczącym katastrofy AI, która ma nastąpić za rok, dwa.
Katastroficzny scenariusz czy dobry thriller do poduszki?
Obawy związane ze sztuczną inteligencją nie są niczym nowym. Literatura science fiction jest pełna ciekawych i dobrze napisanych historii o tym, jakie problemy może generować algorytm, który jest w stanie sam o sobie decydować i ma niemalże nieskończone zasoby do realizacji swoich planów. Szkoda tylko, że jest na rynku kategoria “ekspertów” (o tym, dlaczego w cudzysłowie napiszę niżej), która sprzedaje te historie jako realne scenariusze katastrofy mającej nastąpić już za chwilę. Media straciły kompetencje do ukazania jakiegokolwiek niuansu, a że strach napędza oglądalność, to podkręcanie napięcia stało się nieodłącznym elementem tej branży.
Przerabialiśmy to wiele razy i nic nie wskazuje na to, żeby tym razem było inaczej. Pewnie tylko bardziej i mocniej. Problem rozciąga się poza media, bo tego rodzaju ekspertyzy zamawia także biznes, co ma szansę mieć opłakane skutki, nie tylko dla samych firm. Ale zacznijmy od samych scenariuszy.
Mitologia AI
Możliwości sztucznej inteligencji zawsze były przerysowane, natomiast tym razem mam wrażenie, że osiągamy poziom absurdu. Oczywiście powodem jest bardzo duża elastyczność algorytmów generatywnej sztucznej inteligencji oraz mnóstwo zaskoczeń i nieoczywistych odkryć, których byliśmy świadkami przez ostatnie parę lat. I jest jasne, że mamy do czynienia z rewolucją na miarę tej internetowej sprzed 25 lat. Ale pewne scenariusze powinny pozostać w kategorii mitów i bajek:
AI zastąpi wszystkich ludzi we wszystkich zadaniach.
Tak, pewne zawody nie przetrwają rewolucji AI. Tak samo jak stenotypista jako stanowisko nie przetrwał pojawienia się edytorów tekstu takich jak Microsoft Word. Natomiast historie o tym, że ludzie zostaną bez pracy można włożyć między bajki z wielu powodów:
Istnieją branże i zawody regulowane, związane z prawną odpowiedzialnością za przestrzeganie standardów (wciąż pojawiają się nowe firmy , które obiecują zastąpienie lekarzy, prawników, czy psychologów, ale żadna z nich nie chce wziąć odpowiedzialności za działanie swojego algorytmu).
Technologia tworzy nowe zawody i nowe możliwości - przerabialiśmy to nawet przy stenotypowaniu:
Paradoks Moraveca (z grubsza: łatwiej zautomatyzować wyższe funkcje kognitywne, np. myślenie, niż niższe, np. odkręcanie rury pod zlewem) i błędy modeli językowych (brak rozumienia czasu i przestrzeni) wyraźnie wskazują na to, że operacje na bitach (np. przetwarzanie dokumentów cyfrowych) są dużo łatwiejsze niż operacje na atomach (np. logistyka paczek czy negocjacje biznesowe czy koordynacja projektu w czasie) - te drugie trudno zautomatyzować przy pomocy obecnej technologii. Niestety “eksperci” ekstrapolują możliwości AI na bitach, na zadania na atomach, jakby to było to samo.
Możliwości algorytmu nie oznaczają od razu automatyzacji, bo istota branży/biznesu/aktywności nie polega wyłącznie na “kompetencjach”. Szachy biją rekordy popularności, a Magnus Carlsen jest idolem wielu młodych ludzi mimo tego, że prawie wszyscy gracze (poza absolutną czołówką) są słabsi niż algorytmy.
Twoja praca jest bezpieczna, o ile zrozumiesz, że pod rękę z AI musisz podążać na oczekiwaniami rynku, zamiast upierać się przy stenotypowaniu.
Mamy do czynienia z wykładniczym rozwojem technologii
Wykładniczy rozwój bardzo dobrze znamy nie tylko z technologii, ale także z natury. Klasyczny proces wzrostu bakterii dzieli się na kilka faz: fazę spoczynkową, fazę wzrostu wykładniczego i fazę równowagi (potem jest jeszcze obumieranie, ale to pominę, bo nie ma zastosowania do technologii).
Wiecie dlaczego wzrost wykładniczy zwalnia i dochodzimy do stanu równowagi?
Wyczerpują się źródła pokarmu.
Wykładniczy wzrost możliwości sztucznej inteligencji zakłada nieograniczony dostęp do energii elektrycznej, nieograniczony prawami fizyki wzrost szybkości procesorów, oraz nieograniczony zasobami Ziemi (materiały i praca ludzka) wzrost dostępności mocy obliczeniowej.
Ostatni raz jak sprawdzałem, to wszystkie te założenia były fałszywe. Na to, że szybciej dojdziemy do ściany, jeśli chodzi o energię elektryczną niż zabraknie nam mocy obliczeniowej wskazywał ostatnio nawet Mark Zuckerberg.
Dojdziemy do ściany i rozwój zwolni. Odetchnij spokojniej. Każde nowe gigantyczne centrum obliczeniowe musi mieć własną elektrownię, a jedno i drugie nie powstaje w 3 miesiące.
AI jest obiektywna, dobrze rozumie kontekst i nie popełni błędów ludzi (AGI w dowolnej wersji)
Jest cała grupa podobnych mitów dotyczących “nadludzkich” możliwości sztucznej inteligencji (często ta wersja nazywana jest AGI - Artificial General Intelligence). Biorą się one z kolejnej ekstrapolacji możliwości AI, tym razem z jednej wąskiej dziedziny na drugą.
Algorytmy sztucznej inteligencji w zamkniętych symulacjach (gry, także te komputerowe) biją na głowę ludzi. To fakt. Algorytmy sztucznej inteligencji w wąskich zastosowaniach na dobrych danych (na przykład w biologii, przy przewidywaniu struktur biomolekuł) biją na głowę ludzi. To też fakt.
Te dwa przykłady łączy to, że dane użyte do trenowania algorytmu (czy to przez samouczenie się, czy w inny sposób) nie są obciążone “ludzkim osądem”, czyli w pewien sposób są “obiektywne” i “kompletne”.
Jeśli trenujemy AI na tekstach nawet najmądrzejszych ludzi na świecie, to wciąż jesteśmy ograniczeni brakiem obiektywności i ograniczoną przestrzenią idei, które ludzie uznali za ważne. Co za tym idzie, bieżące modele lepiej lub gorzej imitują heurystyki używane przez ludzi do podejmowania decyzji. I wcale nie jest tak łatwo wyprostować je na tyle, żeby model chociaż sprawiał wrażenie obiektywnego. Nie mówiąc już o poruszaniu się w świecie konceptów nieznanym ludziom.
Owszem, jest teoretyczna możliwość, że AI pozbędzie się tych obciążeń, jeśli dostanie możliwość eksperymentowania samodzielnie (tzw. “self-play”, tak uczono AI gry w szachy czy w Go). Ale eksperymentowanie na dużą skalę wymaga:
dużej mocy obliczeniowej
dużych zasobów, jeśli eksperymentowanie ma dotyczyć “atomów” a nie “bitów”
Współczesne AI, jeśli opanuje świat, to potknie się szybko o własne sznurówki, bo nie radzi sobie lepiej niż człowiek ze światem atomów. A następna generacja potknie się o brak energii. A kolejna o brak mocy obliczeniowej. Śpijmy spokojnie.
AI wyprodukuje nanoroboty (lub miliony humanoidalnych robotów z nożami kuchennymi) i zabije nas wszystkich
Na bazie poprzednich mitów produkowany jest ekstremalny wariant, który poziomem absurdu przypomina… Rekinado (film trudno polecić komukolwiek poza fanami absurdalnych horrorów science fiction).
W tym wariancie AI mając dostęp do laboratoriów i fabryk (kto przydzieli ten dostęp?), samodzielnie projektuje śmiercionośną technologię (większość laboratoriów nie jest w pełni zautomatyzowana, więc musi jeszcze przekonać/przekupić ludzi, prawda?), produkuje ją na dużą skalę (skąd fabryki?) albo tworzy samoreplikowalną wersję (skąd zasoby?). Efekt? Giniemy wszyscy.
Tutaj założenia o nieograniczonym dostępie do energii i innych zasobów nie są tak oczywiste, bo przykryte sosem innej dziedziny (nanotechnologia, ale może być też biotechnologia). Ale razi w oczy także założenie, że nanotechnologia jest na etapie regularnego projektowania nanorobotów, tylko etyczni ludzie nie robią ich śmiercionośnej wersji. Jeśli zapytać ekspertów od nanotechnologii, to o tym nie słyszeli.
Czy na sali jest ekspert od GenAI?
W tym newsletterze powtarzam dość często: "nikt nic nie wie, wszyscy eksperymentują”. Generatywna sztuczna inteligencja to bardzo nowy temat, co do którego trudno mieć intuicję. Nawet weterani uczenia maszynowego zaskakiwani są dość często, bo podejścia, które nie działały w małej skali 5-10 lat temu, działają świetnie dzisiaj, a jedyne co się zmieniło, to np. liczba parametrów modelu.
Ktokolwiek twierdzi, że wie, w którym kierunku to zmierza w globalnej skali i podaje horyzonty czasowe powyżej 6-12 miesięcy, popełnia (świadomie lub nie) jeden lub więcej błędów z tej listy:
opieranie się na doniesieniach prasowych, wykładach na YouTube, książkach innych “ekspertów”, itp. materiałach, które trudno uznać za źródłowe
traktowanie eksperckich analiz potencjalnych ryzyk, jako listy faktycznych problemów, zwłaszcza, jeśli takie analizy nie zawierają prawdopodobieństw wystąpienia opisywanych sytuacji
brak własnego eksperymentowania z technologią (zaskakujące jest jak wielu “ekspertów od straszenia AI” nie jest w stanie podać ani jednego własnego przykładu problematycznego zachowania GenAI)
ignorowanie faktycznych danych odnośnie rozwoju technologii (adopcja na rynku, wprowadzane usługi, przykłady automatyzacji lub wdrożeń), a w zamian opieranie się wyłącznie na eksperymentach w laboratorium/symulacjach
brak uwzględnienia istniejących i przyszłych regulacji prawnych, dostępności zasobów, praw fizyki, wolnej dyfuzji wiedzy i zdolności ludzi do samoregulacji/samocenzurowania (na tą ostatnią może nie liczyłbym za bardzo, ale to wciąż dość istotny czynnik)
ignorowanie insightów ludzi, którzy tworzą AI (naukowców, inżynierów)
Nie jest łatwo znaleźć eksperta, którego ocena sytuacji będzie pozbawiona powyższych obciążeń. Dlatego też z uporem maniaka powtarzam, że firmy nie mają innego wyjścia jak budować kompetencje GenAI wewnątrz. Możemy (zespół Neurofusion Lab z partnerami) w tym pomóc, ale nie zrobimy tego za Was.
Odwracanie uwagi
Straszenie AI ma negatywne konsekwencje i o te konsekwencje mam pretensję do straszących. Chodzi o odwracanie uwagi firm i osób indywidualnych od potencjalnie twórczych i pozytywnych zastosowań nowej technologii.
Czym innym jest wskazywanie na realne i faktyczne problemy z AI, a czym innym wróżenie z fusów i przedstawianie mało prawdopodobnych scenariuszy, jako jedynych możliwych. Część osób zamiast eksplorować nowe możliwości, które otwiera AI, skupi się na bronieniu status quo. Fajne i pozytywne rozwiązania nie powstaną, bo ktoś dojdzie do wniosku, że to i tak nie ma sensu. Świat pójdzie do przodu, jak zwykle, a część osób okopie się w bunkrach (prawdziwych czy wymyślonych) i spróbuje przeczekać.
Odwracanie uwagi ludzi od potencjalnie pozytywnych zastosowań GenAI uważam za nieodpowiedzialne. Kropka.
I to już koniec wylewania frustracji.
Ciekawe niusy
Wspominałem już o Open Interpreter O1, który przejmuje kontrolę nad komputerem i jest w stanie uczyć się nowych zadań. Trudno było natomiast porównać Open Interpreter’a do UFO (Microsoft), czy innych narzędzi tego typu, żeby ocenić chociażby, czy nowe narzędzia są lepsze/gorsze/porównywalne.
Pojawił się nowy zestaw testów (pod nazwą OSWorld), które powinny wkrótce odpowiedzieć na pytanie, jak w tej dziedzinie radzą sobie dedykowane rozwiązania. W pierwszej wersji wzięto pod uwagę wielomodalne modele językowe (np. GPT-4 z rozpoznawaniem obrazu) i radziły sobie duuużo gorzej niż ludzie. Wkrótce dowiemy się więcej odnośnie dedykowanych rozwiązań jak Open Interpreter, ale tego rodzaju publiczny benchmark napędza innowacje. Więc można się spodziewać, że wkrótce takie narzędzia obsługiwały będą komputer w podstawowych zadaniach niedużo gorzej od ludzi.
Hura. W końcu na się zautomatyzować te wszystkie nudne rzeczy, które prowadząc biznes musimy codziennie robić!