Sztuczna inteligencja. Czy samoświadomość programów i maszyn jest możliwa? Czy czeka nas KONIEC ŚWIATA przez BUNT MASZYN?

W popkulturze to jeden z wyświechtanych już motywów apokalipsy. Super komputer albo zaawansowany program dzięki rozbudowanej sztucznej inteligencji (SI) uzyskuje samoświadomość, uznaje ludzkość za zagrożenie i rozpoczyna apokalipsę, której celem jest zniszczenie człowieka. Tymczasem w realnym świecie nikt na serio przed takim scenariuszem nie ostrzegał. Czy koniec świata z powodu buntu maszyn powodowanej rozwojem SI jest faktycznie możliwy?
SI i koniec świata w popkulturze
W serii filmów „Terminator” przedstawiony jest świat, w którym zaawansowany program wojskowy z powodu zaaplikowania potężnej sztucznej inteligencji uzyskuje samoświadomość. Ocenia szybko, że ludzkość jest zagrożeniem, więc mając dostęp do amerykańskiego arsenału jądrowego odpala pociski, wywołując szybką wojnę jądrową. Następnie walczy z ludźmi w zniszczonym nuklearną pożogą świecie za pomocą produkowanych przez siebie maszyn.
W trylogii „Matrix” jest podobnie. Wykorzystywane powszechnie przez ludzkość maszyny i brak szacunku dla nich w pewnym momencie wywołują problem, gdyż te zyskują samoświadomość. Rozpoczyna się wojna, którą ludzkość przegrywa, w efekcie czego podłączeni zostają do wirtualnej rzeczywistości, gdy faktycznie ludzie służą za baterie dla maszyn.
Także i w grach motyw groźnej SI stał się popularny. W serii „Wasteland” mamy motyw niemalże zerżnięty z „Terminatora”, gdzie wojskowa SI uznaje ludzi za zagrożenie i wywołuje apokalipsę. Z kolei w grze „Fallout 3” głównym antagonistą jest przedwojenny superkomputer, który – po śmierci prezydenta enklawy fikcyjnego przedwojennego państwa amerykańskiego – uzyskuje samoświadomość i sam ogłasza się prezydentem. Za cel zaś bierze sobie zniszczenie niemal całej ludzkości na terenie kraju, uznając ją za groźnych mutantów, by odbudować państwo.
Czy jednak którakolwiek z powyższych wizji jest choć trochę realna? Czy SI może uzyskać samoświadomość i podejmować kreatywne, własne decyzje?
Czym jest sztuczna inteligencja
Wydaje się, że jednak nie. Popularność powyższych wizji wynika głównie z użycia wprowadzającej w błąd nazwy. „Sztuczna inteligencja” (ang. artificial intelligence) nie jest uboższą, sztucznie wytworzoną “inteligencją”. SI to rozbudowany zbiór algorytmów i kodów, który owszem, może pozwolić na podejmowanie pewnych decyzji (np. czy napisany na Facebooku post jest – wedle założeń administratorów – „mową nienawiści” i należy go usunąć albo jaki film na YouTube wyświetlić w „proponowanych”, na podstawie tagów obecnie oglądanego przez użytkownika oraz wyświetlanych przez niego w ostatnim czasie), ale tylko w ramach wcześniej przygotowanych założeń i warunków, możliwości procesora oraz dostępnej energii.
Sztuczna inteligencja ma nawet możliwość „uczenia się”, tj. przyswajania sobie jakichś informacji oraz wyciągania wniosków. Udowodniły to pojawiające się co i raz publicznie dostępne boty, które rozwijały swój zakres wiedzy na podstawie każdej konwersacji z użytkownikami.
Wszystko jednak przebiegało we wcześniej przygotowanych ramach. Ponadto w pewnym momencie, aby pozyskiwać nowe dane, potrzebna jest większa moc procesora oraz dostępnej pamięci. W razie braku tychże, albo następuje koniec nauki albo konieczność kasowania poprzednich danych.
Inteligencja i umysł
Jak wspomniałem, SI nie jest ściśle mówiąc inteligencją, a już na pewno nie jest umysłem. Nie ma własnej woli i nie ma możliwości odczuwania, a jedynie analizę dla wcześniej zaplanowanych potrzeb.
Tutaj warto zatrzymać się na chwilę nad pojęciem umysłu i sposobem jego postrzegania. Na „Wikipedii” znajdujemy dość ubogie znaczenie tego słowa. - Termin ogólny oznaczający ogół aktywności mózgu ludzkiego, przede wszystkim takich, których posiadania człowiek jest świadomy: spostrzeganie, myślenie, zapamiętywanie, odczuwanie emocji, uczenie się, czy regulowanie uwagi. Wyrażenie bliskoznaczne do psychiki, świadomość wyrażenie kooperujące: osobowość – czytamy. Umysł więc sprowadzony jest do kwestii mózgu i psychiki.
O wiele szerzej zaś o umyśle możemy przeczytać w książce Grzegorza Osińskiego „Transhumanizm. Retriarius contra secutor” wydawnictwa WSKSiM. Kwestii umysłu i wszystkiego, co z nim związane, poświęcony jest cały rozdział książki, zaś całość dotyczy właśnie kwestii inteligencji. Autor zaznacza, że umysł i mózg to odrębne pojęcia, ale współdziałające. Umysł zaś – bardzo streszczając i upraszczając cały wywód – to właściwie całe nasze ciało. Zarówno organy jak i kończyny, ale też nerwy, komórki, neurony i wszelkie niedoskonałości – poważne i większe, jak również i mniejsze, czy w ogóle nieznaczące – które posiadamy. Mają one wpływ na to, jak postrzegamy rzeczywistość, jak myślimy, reagujemy, etc.
W tym miejscu interesuje nas fakt, że maszyna czy program nie może odczuwać. Ciężko więc założyć, aby miała umysł, a więc by zaaplikować jej lub – tym bardziej – by sama wykształciła „normalną” inteligencję, o wolnej woli nie wspominając. Nie ma więc miejsca na samoświadomość.
Samoświadomość i obawy Hawkinga
Motyw samoświadomej maszyny niszczącej ludzkość bardzo rozwinął się dzięki nagłówkom o wypowiedzi Stephena Hawkinga, który „ostrzegał ludzkość przed SI”. Panika przed samoświadomością jest jednym z przykładów, że ludzie jako ogół nie czytają więcej, niż nagłówek, nie wchodzą w szczegóły ogólnego hasła, a więc też demokracja jest szkodliwym ustrojem. Ale tym razem nie o tym.
Hawking wyraźnie ostrzegał przed SI nie w kontekście zyskania przez nią samoświadomości, lecz złego zaprogramowania przez człowieka – zarówno z powodu błędu ale też złej intencji. To czynnik ludzki może sprawić, że SI będzie niebezpieczna.
– Domyślam się, że nie jest pan kimś, kto nienawidzi mrówek i depcze je w ataku złości, kiedy tylko ma ku temu okazję. Ale wyobraźmy sobie, że jest pan odpowiedzialny za zbudowanie hydroelektrowni i w miejscu, które ma być zalane wodą, znajduje się kolonia mrówek – cóż, mrówki mają pecha. Nie powinniśmy doprowadzić do tego, by ludzie byli takimi mrówkami – powiedział Hawking podczas jednej z konferencji. Innymi słowy, brak pewnych „zabezpieczeń” czy założeń dla SI w konkretnym zadaniu może sprawić, że spora grupa ludzi ucierpi. Nie obawiał się więc „złośliwości” SI, a tego, w jakie kompetencje zostanie wyposażona.
Innym niebezpieczeństwem wskazanym przez Hawkinga była kontrola zaawansowanej SI przez jedną korporację.
Nie było więc obaw u tego nieżyjącego już, ale w swoich czasach z pewnością genialnego fizyka o to, że SI stanie się samoświadoma. Albo, że obierze sobie za cel – bo sama tego zrobić po prostu nie może – zniszczenie ludzkości. Obawiał się ludzkich błędów oraz chęci wywołania przez człowieka cierpienia i zniszczenia przy użyciu SI.
Dominik Cwikła
Źródło: prawy.pl / businessinsider.com.pl / Wikipedia / G. Osiński, „Transhumanizm. Retriarius contra Secutor”, wyd. WSKSiM