SATYRYKON LEGNICA 2023 rys. Xiaoqiang Hao (Chiny)
Uczniowie czarnoksiężników
Pewno nie wracałbym kolejny raz do kwestii sztucznej inteligencji, gdyby nie to, że Renata, przygotowując się do ewentualnej batalii o jakieś nowotarskie sprawy, ściągnęła sobie ChataGPT i poleciła mu do opisanego przez siebie casusu dobrać odpowiednie paragrafy kodeksowe. A potem z zachwytem opowiadała mi, że Chatowi zajęło to niecałe dwie sekundy.
Nie wierzę w to. Człowiek to nie robot, nie jest w stanie zmierzyć czasu trwania czegoś krótszego niż dwie sekundy. Ale to, że sztuczna inteligencja z powodzeniem będzie mogła zastąpić już niebawem jeśli nie adwokatów, to radców, a już na pewno doradców prawnych – pisano od dawna. Bo głównym źródłem „wiedzy” rozmaitych asystentów internetowych jest to, że zostali oni nakarmieni ogromnymi bazami danych, całą dostępną w sieci literaturą: fachową, piękną, techniczną, prawniczą i tak dalej, a stosowne algorytmy nauczyły ich kategoryzować te teksty i rozróżniać wiarygodne źródła od dyskusji i polemik, a te – od fejków i świadomych przekłamań. Czy to ostatnie jest na pewno skuteczne i w jaki sposób skonstruowano takie specyficzne filtry? No, tego właściwie do końca nie wiemy, możemy tylko polegać na tym, że SI umie się uczyć, czyli nieakceptowane przez odbiorców odpowiedzi na trudne pytania powoli eliminuje z wiarygodnych baz. A więc, niestety, mądrość naszych elektronicznych asystentów w znacznej mierze musi się opierać na jakże ułomnej naszej, ludzkiej mądrości.
Ostatnio napotkałem na informację o tym, że jednym z kryteriów akceptacji przez nią odpowiedzi na pytania jest ich frekwencja w sieci. Im więcej takich-a-takich stwierdzeń, tym dla SI jest to bardziej wiarygodne. I to mnie dopiero przeraziło. W dodatku informacji tej towarzyszył opis akcji jakichś grup młodzieżowych, dla beki wpisujących, milionami ponoć, w internecie stwierdzenie, że 2 + 2 = 5. Ot, tak, po prostu, żeby sztucznego inteligenta zdezorientować i sprawić, że stanie się skrajnie niewiarygodny. Nie wiem, czy to zabawa, czy dywersja, czy złośliwość, czy współczesny ruch luddystów, którzy na przełomie XVIII i XIX wieku pod rzekomym przewodem mitycznego Neda Ludda prowadzili akcję niszczenia maszyn, które miały ich pozbawić pracy. Ale wyobrażam sobie zorganizowaną działalność farm trolli, wprowadzających do sieci rozmaite szalone dezinformacje (ziemia jest płaska i unosi się na oceanie na czterech słoniach, ceterum censeo Ukrainam delandam esse, Jarosław Kaczyński nie jest świętym geniuszem, jedzcie brokuły, Kamala Harris jest Marsjanką…) już nie dla beki, tylko dla osiągnięcia zamieszania i jakichś konkretnych korzyści.
Autentycznie zatroskani ludzie, którzy do sztucznej inteligencji odnoszą się sceptycznie, ostrożnie lub wręcz wrogo, prezentują rozmaity stopień obaw przed przyszłością z udziałem plastikowo-metalowych super inteligentnych geniuszy, którzy opanują Ziemię i odeślą nas z powrotem na drzewo, albo zgoła wymordują, by samemu pociągnąć dalej furkę ewolucji. Te obawy – od hollywoodzkich strachów przed rządzącą światem bezosobową siecią Skynet (filmy z serii o Terminatorze), po obawę o utratę pracy przez radców prawnych, lekarzy i ekspedytorów paczek w Amazonie czy pacjentów, których ma operować robot w sytuacji, kiedy na przykład zaniknie zasilanie elektryczne – w głównej mierze kreowane są na naszej antropomorfizacyjnej wizji przyszłych inteligentnych maszyn. Trudno jednoznacznie stwierdzić, że obawy te nie mają jakiegoś racjonalnego uzasadnienia, ale trudno też zapomnieć, że żadne z tych zagrożeń w dającej się przewidzieć przyszłości nie jest realne, bo jak dotąd chyba nie jest możliwe funkcjonowanie SI bez udziału człowieka. Ona ciągle jeszcze siedzi grzecznie w komputerach i smartfonach i działa tylko wtedy, kiedy się ją spuści ze smyczy.
Nie można oczywiście wykluczyć, że ze względów marketingowych zaczną powstawać piękne robocice-asystentki, wyposażone nie tylko w możliwości zaspokajania rozmaitych potrzeb klientów (parzenie kawy, recytowanie Szymborskiej, taniec na rurze, cytowanie Biblii czy kodeksu pracy), ale i umiejętności medyczne, psychologiczne czy techniczne, że ludzie będą kupować inteligentne i niezniszczalne sztuczne psy, koty czy konie (jeden z takich koni galopował nawet po Sekwanie podczas ceremonii otwarcia Igrzysk Olimpijskich w Paryżu) – ale będzie to margines całej sprawy. Tak jak efemerydą okazały się japońskie elektroniczne zwierzątka Tamagotchi, które trzeba było karmić, naciskając odpowiedni guziczek.
Jak dotąd, sztuczna inteligencja to tylko (aż?) zorganizowane przez wymyślone na razie przez ludzi algorytmy znajdujące się w sieci internetowej miliardy bajtów informacji, które działają w zasadzie tylko wtedy i tylko w tym zakresie, jakie określi uruchamiający je człowiek. Nie mają żadnego fizycznego bytu i istnieją tylko wtedy, kiedy nam są potrzebne. Wyłączenie programu czy wielokrotnie przywoływane w literaturze wyciągnięcie wtyczki komputera wymusza ustanie ich działania. Czy zawsze tak będzie? Czy nie grozi nam sytuacja, pokazana przez Stanleya Kubricka w Odysei kosmicznej 2001, czy wcześniej przez Stanisława Lema w opowiadaniu Młot, kiedy to kierujący statkiem kosmicznym nieistniejący przecież fizycznie robot sprzeciwia się człowiekowi? To wymagałoby istnienia czegoś w rodzaju sztucznej samoświadomości, o której na razie nie słychać i nawet trudno sobie ją wyobrazić w odniesieniu do tych bajtów, bezpostaciowo hulających w chmurze internetowej. Nawet gdybyśmy te inteligentne bajty ubrali w jakieś sztuczne ciało i wyposażyli w umiejętność myślenia i rozumowania, która pozwoliłaby SI przejść test Turinga – jak na razie trudno mi sobie wyobrazić, by taka upostaciowana inteligencja przeszła test lustra, czyli zidentyfikowała swoje odbicie jako jej własny obraz i potrafiła odróżnić siebie od reszty świata.
Jasne, że kiedyś ludzkość nie wyobrażała sobie nie tylko sztucznej inteligencji, komputerów, Netflixa czy lodów o smaku bekonu, ale nawet jakiegokolwiek pojazdu na kołach, bo naszymi inspiracjami było tylko to, co powstało w naturze. Ba! Ale – gdyby pierwotna prabakteria umiała myśleć – czy potrafiłaby wyobrazić sobie Marylę Rodowicz, śpiewającą w sylwestra w Zakopanem piosenkę o tym, że był maj i pachniała Saska Kępa?
Mówi się, że gdy każdy uczeń ma w smartfonie cyfrowego asystenta, zadawanie prac domowych jest bez sensu, bo wszyscy pozostawią tę robotę sztucznej inteligencji, no a jej nauczyciel przecież nie będzie stawiał ocen. Więc trzeba tego zabronić, a prace domowe zlikwidować, by uniknąć kompromitacji, że SI w smartfonie będzie miała większą wiedzę niż pan psor. Cóż, jak mówił starożytny rabin Ben Akiba, cytując Księgę Koheleta – wszystko już było. Choć nie zawsze, a już na pewno nie zawsze tak samo. Arystoteles w swojej Akademii z pewnością nie zadawał prac domowych i nie stawiał ocen. A ja w podstawówce dostałem kiedyś na polskim dwóję z wypracowania z uwagą: nie wolno pisać długopisem. W ostatnich latach uczniowie przysyłali mi swoje teksty mailem lub Messengerem. Później konfiskowano nam w szkole elektroniczne kalkulatory, bo trzeba było umieć liczyć na piechotę i przekonywano nas, że to będzie niezbędne w życiu. Dobrze, że tego nie słyszeli młodzi ludzie pracujący w sztabie NASA.
Innym zagrożeniem – zapewne znacznie groźniejszym – jest to, iż owe przepastne zbiory danych, które są źródłem mądrości SI, przechowywane w chmurze tak naprawdę zlokalizowane są w ogromnych serwerowniach, usytuowanych na kilku kontynentach – głównie w krajach trzeciego świata, w opuszczonych kopalniach, na pustyniach czy, niestety, w miastach. Także w Warszawie. Grzeją i hałasują, a największe z nich pożerają tyle energii, ile trzy polskie województwa… Już dziś internetowe chmury, ulokowane jak najbardziej na ziemi, zużywają 3 % światowych zasobów energii elektrycznej. Wielcy gracze w tej branży planują dla zasilania serwerów uruchomienie własnych elektrowni atomowych.
Ale prawdziwe niebezpieczeństwo dla rozwoju ludzkości nie polega na tym, że będziemy w życiu prywatnym i w pracy posługiwać się coraz nowocześniejszym sprzętem, tylko na tym, że nie będziemy się umieli nim posługiwać mądrze. Ten problem towarzyszy ludzkości od dawna: ile musiało być śmiertelnych wypadków przy rozniecaniu ognia? Pewno pamiętamy też opowieść o uczniu czarnoksiężnika (ballada Goethego, film Disneya, liczne warianty): chłopak, terminujący u mistrza magii, pod nieobecność nauczyciela zaklęciem zmusza miotłę do napełnienia wodą wanny, no i świetnie mu się udaje, tylko nie pamięta albo nie zna zaklęcia odwołującego tamto polecenie, skutkiem czego omal nie ginie w wodzie, którą miotła – z czasem sklonowana przez rozłupanie siekierą – wciąż do tej wanny przynosi. Szwedzki filozof Nick Bostrom (ur. 1973) już kilkanaście lat temu podał przykład, jak nie wchodząc w żadne wojny robotów sztuczna inteligencja może zniszczyć ludzkość. Oto niewielki przedsiębiorca zleca jej stworzenie i wdrożenie programu do produkcji spinaczy do papieru. SI optymalizuje produkcję, łączy się ze wszystkimi fabrykami i zmienia ich program tak, by zamiast garnków, samochodów, chleba i komputerów produkowały spinacze. Potrzebuje coraz więcej energii, więc odłącza wszystkie szpitale, szkoły, pociągi, stacje benzynowe, środki łączności i zabiera im prąd. Góra spinaczy rośnie, wyczerpują się surowce, więc zmienia algorytm tak, by do wytworzenia docelowego produktu można było wykorzystać inne zasoby: drewno, minerały, białko, wreszcie ludzi. Świat się kończy, umiera wreszcie też sztuczna inteligencja, bo i jej energię i materię pochłonęły spinacze.
Oczywiście, pomysł jest absurdalny i taki miał być: gdyby zamiast spinaczy Bostrom kazał SI produkować pistolety Glock 17 czy kombajny John Deere może ktoś podjąłby z tym merytoryczną polemikę, co odsunęłoby podstawowy problem na bok.
Jak każdy humanista i neptek w dziedzinie techniki jestem wielkim fanem nowinek technologicznych. I jestem tak stary, że nie przeraża mnie wizja przerobienia na spinacze. W ostatnich dniach kwestia spinaczy powróciła w mediach, ale przypisano ją wybitnemu informatykowi, mieszkającemu w Kanadzie tegorocznemu nobliście z dziedziny fizyki Geoffreyowi Hintonowi (ur. 1947). Na wszelki wypadek o te spinacze zapytałem swojego elektronicznego asystenta. Sprostował, że twórcą tej teorii (którą skrótowo opisał) jest Nick Bostrom. Zajęło mu to może trzy sekundy.
Co do mnie, uważam, że hipoteza Bostroma jest wtórna – znów! – wobec naszego genialnego Lema, który w Dziennikach gwiazdowych (1954 r.!), w sprawozdaniu z podróży dwudziestej czwartej opisuje pobyt na pewnej planecie, gdzie wskutek zlecenia władz zainstalowano machinę, która miała pomóc w zoptymalizowaniu życia ludzi, zaprowadzeniu ładu i doskonałej estetyki. Efektem tego było przerobienie wszystkich mieszkańców na estetyczne kolorowe krążki, które zostały porozkładane w piękne wzory na całej planecie. Machina (której konstruktor nie wiedział jak będzie ona działać, bo zadał jej tylko ogólne i docelowe zadanie i sam stał się jednym z pierwszych kolorowych krążków) nie stosowała żadnego przymusu i nazywała się Dobrowolny Upowszechniacz Porządku Absolutnego, a mieszkańcy, wierzący w kreacjonizm i opiekę ze strony Wielkiego Indy, sami siebie nazywali Indiotami.