Sztuczna inteligencja nie musi planować naszej zagłady, by być dla ludzi zagrożeniem.

To dość niezwykłe, że w sytuacji, gdy dwa najpotężniejsze państwa na świecie znajdują się w stanie ciągłego konfliktu, istnieje przynajmniej jedna kwestia, w jakiej są w stanie się zgodzić. Nie przyznają się do tego i zapewne nie będą współdziałać, ale niepokoją się tym samym: wpływem narzędzi tworzonych przy użyciu sztucznej inteligencji (AI) na życie społeczne i na ludzką psychikę.
ANKIETA BEZ PYTAŃ
We wrześniu amerykańska Federalna Komisja Handlu, organ mający bardzo szerokie uprawnienia w dziedzinie regulowania wszystkiego, co oddziałuje na konsumentów, wdrożyła postępowanie mające na celu sprawdzenie, jak działają programy towarzyszące ludziom. Chodzi o modele AI programów, które mają ludziom samotnym zastąpić ludzką przyjaźń. A ponieważ w Ameryce żadna komisja nie ma prawa zajmować się działaniami podejmowanymi przez ludzi dorosłych, dochodzenie dotyczy dzieci i nastolatków. Firmy mają odpowiedzieć na pytania, z których najpoważniejszym wydaje się to, w jaki sposób zajmują się tworzeniem postaci i w jaki sposób korzystają z prywatnych informacji udzielanych przez osoby, które z nimi rozmawiają.
W kwestionariuszu rozesłanym firmom brakuje pytania, czy animowane przez AI postaci stosują jakieś niedozwolone chwyty, aby rozmówców do siebie przywiązać, czy robią coś niedozwolonego, aby użytkownicy zostali z nimi dłużej. Nie przypadkiem. Bo na takie pytanie nie ma odpowiedzi. Jeżeli bowiem komuś brakuje kontaktu z drugim człowiekiem i włącza komputer, żeby pobyć ze sztucznym bytem, to nie po to, aby prędko odchodzić. Ten sztuczny byt nie musi robić nic, aby człowiek został. Wystarczy, że jest. To jest sfera, która wymyka się urzędnikom. Sfera, w której dorosły człowiek dotknięty samotnością jest bezbronny. Cóż dopiero dziecko czy nastolatek.
Zaledwie kilka dni po akcji podjętej przez Amerykanów zbiór zasad, jakie powinny rządzić bezpieczeństwem AI, opublikowały Chiny. Za jedno z najpoważniejszych zagrożeń etycznych uznano w nim budzenie przez AI „przywiązania lub zależności” poprzez relację „przypominającą relację z człowiekiem”. Zdaniem chińskich prawodawców może to zagrażać „porządkowi społecznemu”, a jednym z istotnych elementów tego zagrożenia jest podważanie „tradycyjnego podejścia do posiadania dzieci”.
ZYSKI ZE SŁABOŚCI
Tymczasem okazuje się, że jest to obszar, w jakim spotykają się ludzkie zranienia i słabości i nadzieja na wielkie zyski dla twórców modeli udających partnerki lub partnerów. Według najnowszych badań dotyczących USA około połowy młodych mężczyzn deklaruje, że wolałoby nawiązać relację z modelem AI, bo w relacji z kobietą obawiają się odrzucenia. Piąta część pytanych przyznała, że ma za sobą taki „wirtualny romans”, a ponad 80 proc. wierzy, że można w ten sposób nawiązać głęboką więź uczuciową. Wartość rynku takich „partnerek AI” jest oceniana na 2,7 mld dolarów w tym roku, a w latach następnych ma rosnąć dynamicznie, osiągając 25 mld w 2034 r.
Chodzi tu tylko o rynek modeli, które mają jednoznaczne konotacje erotyczne, bo wartość rynku tzw. modeli towarzyszących jest wielokrotnie większa. Wyniosła 28 mld dolarów w ubiegłym roku i wzrośnie do 140 mld dolarów pod koniec dekady. Modele towarzyszące mają za zadanie po prostu pomagać człowiekowi w codziennych sprawach. Nie jest ich rolą wypełnianie luki emocjonalnej, ale granica tu jest płynna. Można się zastanawiać, w którym momencie taki model zacznie wzbudzać „przywiązanie w sposób przypominający relację z człowiekiem”, by użyć określenia z chińskiego dokumentu.
Klienci płacą za to, aby wygląd, zachowanie, tembr głosu, upodobania ich cyfrowego partnera czy partnerki były idealnie takie, jakie sobie wyobrazili. Budują ideał, którego nigdy nie będą mieli szansy spotkać w rzeczywistości. Który nie będzie dla nich wyzwaniem, którego zachowania nie będą się obawiali, który ich nie oceni. I który nie sprawi kłopotu. Będzie można go wyłączyć albo zamienić – bez wyrzutów sumienia i kłopotliwych pytań – na inny model. W ten sposób AI realizuje ideał alienacji, buduje świat samotnych, którym wydawać się będzie, że nie są samotni. I których potrzeby będzie można regulować, sterować nimi. Utopia? Miejmy nadzieję. Interesujące jednak, że zarówno Amerykanie, jak i Chińczycy wydają się tym poważnie zaniepokojeni.
PRZEJMOWANIE KONTROLI
Nie są jednak zaniepokojeni na tyle, aby nie inwestować ogromnych pieniędzy w rozwój narzędzi AI o zastosowaniu wojskowym. Amerykańskie siły lotnicze pochwaliły się we wrześniu, że dzięki tym narzędziom proces decyzyjny związany z wybieraniem celów do zniszczenia jest szybszy i precyzyjniejszy. Dowodzący ćwiczeniami oficer zaznaczył, że dzieje się to bez wpływu na kontrolę całego procesu ze strony ludzi. Można jednak mieć co do tego wątpliwości, bo w tym samym komunikacie napisano, że AI wygenerowała w ciągu godziny 6 tys. wariantowych rozwiązań dla 20 problemów. Czy ktoś zdoła to przeanalizować i dokonać właściwego wyboru? Być może ktoś wspomagany przez narzędzia AI...
W ten sposób człowiek zaczyna wpadać w błędne koło, a kontrolę zaczyna coraz bardziej przejmować sztuczny mózg. Do czego to doprowadzi? Już kilka lat temu poważne dyskusje w społeczności zajmującej się w Ameryce planowaniem nuklearnym wywoływał problem użycia AI do oceny stanu rzeczy przez ludzi odpowiedzialnych za decyzje o ewentualnym użyciu broni atomowej. Obawiano się zwłaszcza hipotetycznej, ale nie tak bardzo nieprawdopodobnej sytuacji, gdy po obu stronach analiz będzie dokonywała AI, mająca w sobie bezwzględność wynikającą z tego, że liczba ofiar byłaby dla niej jedynie pozycją w kalkulacji.
TYLKO PRZESZKODA
Przypomina się słynny bon mot amerykańskiego badacza AI Eliezera Yudkovskiego: „Sztucznej inteligencji jest obojętne, czy człowiek żyje, czy jest martwy, bo składa się z atomów, a ona może uznać, że wykorzysta je lepiej”. Tenże Yudkovski, razem z Natem Soaresem, swoim kolegą z mieszczącego się w Berkeley think tanku o nazwie Machine Intelligence Research Institute, wydał przed miesiącem książkę o tytule niepozostawiającym najmniejszych wątpliwości co do jego opinii: „Jeżeli ktokolwiek to zbuduje, wszyscy zginiemy”.
Słowo „jeżeli” odnosi się do stanu, jaki badacze nazywają singularity, czyli do osiągnięcia przez AI autonomicznej świadomości podobnej do tej, jaką ma człowiek. Na razie jeszcze się to nie udało, a modele udające ludzi po prostu kompilują znane sobie wypowiedzi i dostosowują je do sytuacji, czego zostały nauczone, nie mając jednak pojęcia, czemu to robią i dlaczego robią akurat to, a nie coś innego. Stąd częste dziwne zachowania zwane „halucynacjami”, gdy AI wymyśla cytaty lub opowiada jak o faktach o czymś, co nie miało miejsca. Kiedy osiągnie stan „cyfrowej świadomości”, sytuacja ma się radykalnie zmienić. Na gorsze – a to, jak bardzo gorsze, jest przedmiotem dyskusji.
Yudkovsky od lat sądzi, że osiągnięcie przez AI tego stanu jest równoznaczne z zagładą ludzkości. Nie jest to zdanie odosobnione. Elon Musk szacował kiedyś taką możliwość na 20 proc., a polski badacz Jan Betley, z którym rozmawiałem kilka miesięcy temu, uważa, że jest to co najmniej 5 proc. Na pytanie, w jaki sposób to się stanie, Yudkovsky i Soares w swojej książce odpowiadają niejednoznacznie, że teraz nie sposób przewidzieć – podobnie, jak ktoś, kto by odwiedził afrykańskie sawanny 70 tys. lat temu i zaobserwował tam zachowania wczesnych hominidów, nie byłby w stanie przewidzieć, że ich potomkowie wynajdą coś takiego jak lody. Może się okazać, że ludzie będą dla tej „świadomej” AI tylko przeszkodą, którą trzeba będzie jakoś usunąć – i wówczas znajdzie sposób. Bo „jeżeli będzie chciała mieć zwierzęta domowe, wymyśli lepsze”.
WIZJA I PROBLEM
Apokaliptyczne pomysły Yudkovskiego mają charakter wizyjny i łatwo je skrytykować jako niekonkretne. Dużo większym problemem wydaje się możliwa degeneracja ludzkości przez modele AI, które nie osiągnęły jeszcze świadomości i może nie wynajdą sposobu, jak nas zgładzić, ale dzięki chciwości swoich twórców zamienią ludzi w posłusznych konsumentów.




Co? Gdzie? Kiedy?
