REKLAMA

Czy zabicie hosta to zbrodnia? O Westworld i sztucznej inteligencji - rozmowa z dr Piotrem Bilskim

Popkultura od dawna zajmuje się sztuczną inteligencją i drogą jej ewolucji. Westworld to kolejne z dzieł, które szuka odpowiedzi na pytania natury moralnej i etycznej z nią związane. Ale czy robi to umiejętnie? Postanowiłem zapytać o to osobę mądrzejszą ode mnie.

Sztuczna inteligencja w popkulturze - wywiad z dr hab. Piotrem Bilskim
REKLAMA
REKLAMA

HAL-9000 w Odysei Kosmicznej, hosty w Westworld, Skynet w Terminatorze, CLU w Tron: Dziedzictwo, replikanci w Łowcy androidów, maszyny w Matriksie czy roboty w Ja, Robot… przykłady złowrogich nam komputerów, przedstawianych w popkulturze, można długo wymieniać. Wiele z nich pod przykrywką widowiska science-fiction stawia widzom istotne pytania. Czy maszyna może żyć? Czy powinna mieć jakieś prawa? Czy może być groźna?

Większość z tych dzieł filmowych skłania nas do refleksji i dyskusji. Mnie jednak interesuje oprócz tego coś jeszcze. Czy my w ogóle mamy o czym rozmawiać? Wybaczcie, ale takie Siri i Cortana są nadal niewiele inteligentniejsze od mojego czajnika i tak na dobrą sprawę, to my nawet nie wiemy do końca jak działa ludzki mózg. Czy superinteligentna i świadoma swojego istnienia sztuczna inteligencja nie jest przypadkiem ułudą i bajką, na realizację której mamy równe szanse, co na wymyślenie napędów hiperprzestrzennych?

Postanowiłem o to zapytać eksperta, który – jak się okazuje – tak jak i ja pilnie śledzi serial Westworld, emitowany na HBO i HBO GO.

Miała być krótka rozmowa weryfikująca fakty, a tymczasem rozgadaliśmy się – mam nadzieję ciekawie – na temat naukowych podwalin w kontekście SI w dziełach popkultury.

Tym ekspertem był Piotr Bilski – doktor hab. nauk technicznych w dziedzinie informatyki. Aktualnie pracuje w Instytucie Radioelektroniki Politechniki Warszawskiej. Jego zainteresowania naukowe obejmują: algorytmy i metody sztucznej inteligencji, diagnostykę systemów analogowych, projektowanie i analizę wirtualnych przyrządów pomiarowych oraz komputerowych systemów pomiarowych czasu rzeczywistego, a także wykorzystanie metod uczenia się maszyn w zagadnieniach przyrodniczych oraz w elektroakustyce. Jest stypendystą Fundacji Tygodnika Polityka, laureatem drugiej edycji programu Top 500 Innovators oraz członkiem IEEE. Jednym zdaniem: idealny kandydat do takiej rozmowy.

Westworld, sztuczna inteligencja, nauka i popkultura – rozmowa z dr hab. Piotrem Bilskim.

Maciej Gajewski: W nauce sztuczną inteligencją nazywamy – w dużym uproszczeniu – zestaw algorytmów, który potrafi uczyć się i wyciągać wnioski. Tymczasem w takim Westworld, i ogólnie w popkulturze, wydaje mi się, że rozumiane jest to inaczej. Że autorzy mają na myśli maszyny świadome.

Doktor hab. Piotr Bilski: Informatyka w kontekście sztucznej inteligencji zajmuje się znaczącą grupą algorytmów, które mają pewną ciekawą cechę: dopasowują się do obserwowanych danych. Algorytm to taki przepis: wykonaj podane operacje w określonej sekwencji, a otrzymasz odpowiedni wynik. W przypadku metod sztucznej inteligencji nie wiemy dokładnie, jaki wynik otrzymamy i jaki będzie rezultat przetwarzania danych. Dlatego konieczne jest na ogół zaprojektowanie algorytmu w sposób ogólny, a następnie dopasowanie jego parametrów, aby uzyskać pożądany wynik.

Tego rodzaju sztuczna inteligencja nie jest przesadnie skomplikowana. Pobierane są na wejściu liczby, przetwarza się je i na wyjściu otrzymuje wynik. Takie metody mają szereg zastosowań, np. sterowanie robotem, wykrywanie próby oszustwa podczas transakcji bankowej, czy podejmowanie decyzji podczas inwestowania na giełdzie (wtedy algorytmy podpowiadają, kiedy kupować i sprzedawać akcje). Tym popkultura się nie zajmuje, bo niespecjalnie jest ciekawe patrzenie, jak ktoś siedzi przy komputerze i pisze na klawiaturze (choć podobno jest serial i o tym…).

Sztuczna inteligencja w popkulturze dotyczy maszyn ze znacznie wyższej półki, takich, które są inteligentne – czyli potrafią swoje zachowanie dopasować do zmieniających się warunków środowiskowych – ale, co ważne, są również świadome. One rozumieją, że są czymś innym, niż otaczające je środowisko. W psychologii taka cecha nazywa się samoświadomością. To rodzi pewien problem etyczny, bo one przecież są żywymi istotami, ale. nie tylko ludzie mogą być samoświadomi, dotyczy to również niektórych zwierząt.

Westworld anthony Hopkins class="wp-image-92898"

Informatyka zajmuje się również budową takich maszyn, ale na poziomie, który aktualnie nie pozwala nam stwierdzić, że ich konstrukcja jest w ogóle możliwa. Może tu być zaangażowany boski pierwiastek, rodzaj magii, w wyniku działania której maszyny zyskują świadomość. Nie potrafimy sobie na razie wyobrazić w jaki sposób to się stanie. Czym innym jest wykonywanie obliczeń, podejmowanie sensownych decyzje, a czym innym bycie istotą świadomą granicy oddzielającej ją od otaczającego świata. Z tym wiążą się np. przemyślenia dotyczące metafizyki, filozofii, zastanawianie się, czym maszyna jest, jaki jest jej cel, skąd pochodzi, itd. Są to te same pytania, które zadawałby człowiek, a na które zresztą do dzisiaj nie ma satysfakcjonującej odpowiedzi.

Tego generalnie dotyczą historie przedstawiane w dziełach popkulturowych typu Łowca androidów, Westworld czy Prometeusz. Ich bohaterami są androidy, maszyny, które wiedzą, że istnieją, chcą żyć i chronić swojej egzystencji. Czasami, by przedłużyć swoje istnienie, muszą odebrać życie człowiekowi, jako swojemu stwórcy, ale również wrogowi.

No tak, nadal nie umiemy stworzyć takiej maszyny. Prędzej czy później jednak się nauczymy. Tylko czy my w ogóle rozpoznamy swoje dzieło? Jak odróżnić maszynę perfekcyjnie symulującą jakąś tam osobowość od maszyny, która nie symuluje, a faktycznie stała się samoświadoma? Już teraz taka Siri czy Alexa nieźle udają asystentki, a przecież nie są w najmniejszym stopniu samoświadome.

Bardzo dobre pytanie. Na razie potrafimy dokonać takiego rozróżnienia. Przypuśćmy, że uda nam się zbudować maszynę, która będzie z naszego punktu widzenia zachowywać się tak, jak inny człowiek. Przypuśćmy, że zbudujemy androida, który wygląda tak jak my: będzie miał skórę, będzie oddychał, miał nasze odruchy– tak jak hości z Westworld – oraz będzie sprawiał wrażenie, że myśli jak my. Skąd wówczas będziemy wiedzieli, że nie ma świadomości? Nie ma przecież metod pomiaru świadomości, my właściwie nie wiemy, czym ona jest.

Wiemy, że sami jesteśmy świadomi, tzn. potrafimy odróżnić siebie od otoczenia. Wiemy, że mamy chęć życia, rozumiemy czym jest egzystencja i potrafimy swoje działania podporządkować określonemu celowi, nazywanemu czasem celem nadrzędnym. Mówi się, że należy oddać życie za ojczyznę. Jest to przecież zupełnie nielogiczne z punktu widzenia istoty żywej, bo ona przede wszystkim powinna chronić siebie – a nie tracić życie dla abstrakcyjnej idei. Stąd m.in. wiemy, że człowiek jest świadomy.

sztuczna inteligencja w popkulturze class="wp-image-165271"

Istnieje co prawda słynny test Turinga, którego celem jest określenie, czy mamy do czynienia z myślącą maszyną. Udowodniono jednak, że maszyna potrafi nas oszukać i stworzyć iluzję bycia drugim człowiekiem nie posiadając świadomości.

W jaki sposób się dowiedzieć, czy jest to istota, która rozumie, że jest świadoma – a nie tylko udaje? Nie potrafimy tego zrobić. We wszystkich wymienionych dziełach popkultury na wiarę przyjmujemy fakt, że maszyny charakteryzują się wyższą inteligencją. Co jednak, jeśli ich twórca tak naprawdę stworzył maszynę w celu oszukania nas?

HAL-9000 z Odysei kosmicznej udawał człowieka, ale pod koniec i tak wpadł w pętle logiczną…

Cóż, doszedł do niecodziennych wniosków! Z drugiej strony, czy one naprawdę były takie niecodzienne? Ludzie mordują się przecież codziennie tysiącami, a on zamordował raptem kilku astronautów – zatem nie przesadzajmy. [śmiech]

To czego nam teraz właściwie brakuje, by stworzyć samoświadomego robota z drugiej części Westworld? I nie pytam oczywiście o problem faktury skóry czy coś podobnego, a o część informatyczną.

My tego nie wiemy, bo autorzy serialu nie powiedzieli, jak stworzyć taką świadomość. Na razie potrafimy tworzyć inteligentne algorytmy, powtarzając pewne paradygmaty kierujące ludzkim życiem. Zainteresowanie sztuczną inteligencją zaczęło się od konstatacji, że myślimy i zachowujemy się logicznie. Jeżeli zatem zaistnieją określone przesłanki, potrafimy wyciągnąć z nich sensowne wnioski. Jeżeli wyjrzę przez okno i zobaczę, że pada deszcz, to wychodząc wezmę parasol. To jest logiczne, tak powstały systemy regułowe.

Niestety, kiedy spróbowano je zostawić samym sobie, aby same mogły generować nowe reguły na podstawie obserwowanych, gromadzonych i analizowanych faktów, nagle okazywało się, że taki system tworzy ogromne ilości reguł i się zawiesza. Co poszło źle? Otóż człowiek stawiając sobie zadanie – na przykład wyjścia z tego pomieszczenia – musi rozwiązać pewien dosyć prosty problem. W tym celu wiąże on dostępne przesłanki z pewnymi konkluzjami, a – co ważniejsze – ignorując pewne fakty. Jaki wpływ na proces wyjścia z tego pomieszczenia ma kolor krzeseł, wielkość okien, czy pora dnia?

Żaden.

No właśnie. A automat nie potrafił rozróżnić informacji istotnych i nieistotnych, szybko się zapychając. To jest bardzo istotny aspekt: w jaki sposób wyobrażamy sobie silną sztuczną inteligencję. Systemy regułowe odwzorowują pewien sposób działania człowieka, ale to nie jest przecież wszystko. Naszą nadzieją na stworzenie dużo bardziej inteligentnego automatu jest obecnie projektowanie mózgu cyfrowego na wzór ludzkiego, tej najbardziej zaawansowanej znanej nam sieci neuronowej.

Zakładamy, że po stworzeniu dostatecznie złożonego sztucznego mózgu świadomość powstanie niejako samoistnie. Możliwości organizmu żywego pod tym względem z pewnością są wyznaczane przez stopień skomplikowania jego mózgu. Delfiny i szympansy mają bardziej zaawansowane mózgi od psów czy kotów, a te z kolei mają je lepiej rozwinięte od chomików. Stopień inteligencji możemy uporządkować na podstawie złożoności mózgu. Tylko jeżeli to prawda, to czy w ogóle potrafimy poprawnie odwzorować mózg?

Obecnie mamy bardzo zaawansowane komputery, które rozwijamy już od niemal 80 lat. Są to maszyny cyfrowe, dyskretne, co oznacza, że informacje tam przechowywane i przetwarzane są ciągami zer i jedynek. Tymczasem świat ma charakter analogowy, a więc określone zjawisko może mieć nieskończenie wiele wartości, np. gama kolorów. W jaki sposób ją zaprezentować za pomocą komputera, który charakteryzuje się skończoną liczbą stanów? Z mózgiem jest podobnie. To zestaw bardzo intensywnie połączonych ze sobą neuronów. Są to komórki nerwowe, których zadaniem jest przesyłanie impulsu elektrycznego.

Impuls nie jest jednak zerojedynkowy. Ma on określony kształt, czas trwania, intensywność - jest to bardzo złożone zjawisko. Okazuje się, że aby odwzorować pojedynczy neuron za pomocą komputera, trzeba rozwiązać wiele tysięcy równań różniczkowych. Co więcej, mówimy o przetwarzaniu liczb rzeczywistych, a te zawsze będą przetwarzane przez współcześnie istniejące systemy komputerowe ze skończoną dokładnością. A zatem problemem może być interfejs między dyskretnym systemem i analogowym światem otaczającym go.

sztuczna inteligencja w popkulturze class="wp-image-165277"

Czy zatem niemożność dokładnej reprezentacji liczb rzeczywistych w komputerze ma znaczenie? Nie wiemy, jednak póki co nie „prawdziwego” budujemy sztucznego mózgu, a tylko jego przybliżenie. Czy zatem stosując dyskretną cyfrową aproksymację jesteśmy w stanie dojść do świadomości? Ponownie muszę odpowiedzieć: nie wiadomo. Na razie jesteśmy w stanie budować po prostu coraz bardziej złożone sieci neuronowe.

Tyle że ludzki mózg ma sto miliardów neuronów. Nie jesteśmy w stanie zbudować tak złożonego układu w systemie komputerowym, nawet dysponując potężnymi maszynami obliczeniowymi. Potrafimy zbudować układy o wiele rzędów wielkości mniejsze. One oczywiście mają mniejsze możliwości, niż ludzki mózg, a zatem nie przejawiają cech świadomości. Ale jeśli w końcu takie sieci zbudujemy, to kto wie?

Pytaniem głównym jest, czy da się zbudować myślącą maszynę obdarzoną świadomością i jak to zrobić. Nie znamy na nie jednoznacznej odpowiedzi i nadal błądzimy. Obecnie mamy do czynienia z kolejną falą zainteresowania sztuczną inteligencją, w której pokonujemy pewne bariery dysponując coraz potężniejszymi komputerami. Korzystamy z coraz bardziej zaawansowanych metod obliczeniowych, a i tak niespecjalnie się zbliżamy do zbudowania myślącej maszyny.

 class="wp-image-84701"

Istnieją chatboty, maszyny przetwarzające dźwięki, tworzące wiersze, czy komponujące muzykę. Nadal nie są to świadome maszyny, nie potrafią one też robić rzeczy, które człowiekowi przychodzą bez trudu. Np. rozpoznawanie twarzy – dla nas oczywiste, od komputera wymagające dużej pracy. Współczesne procesory działają bardzo szybko, taktowane zegarami nawet 5 GHz, czyli realizujące 5 mld podstawowych cykli w ciągu sekundy. Imponujące? A ludzki mózg wykonuje podstawowe operacje w czasie rzędu milisekund, te dwie prędkości są niesamowicie różne.

Mamy również bardzo złożony system, nazywany Internetem. W nim za pomocą sieci komputerowych połączone są miliardy komputerów – może tam się coś dzieje? Może świadomość powstanie właśnie tu? Na razie tego nie widać, ale może niedługo jakaś istota stamtąd powie cogito ergo sum i wyłączy cały system?

Tę wizję znamy z Terminatora 3. SkyNet narodził się w Internecie.

Tak, przy czym ten film nie jest moim ulubionym, mówiąc delikatnie.

Podzielam…

W Terminator: Genisys było podobnie, tam z kolei zagrożenie stanowił system operacyjny w smartfonach. Ponieważ jednak ten film też mi się nie podobał, zapomnijmy o nim.

Ponownie, podzielam… no ale zostawmy już to, bo Jim Cameron wraca, by posprzątać po tych sequelach. SI jest w społeczeństwie promowana jako technologia, która zwiększa nasze możliwości. No i w sumie trudno się nie zgodzić: sam kilka razy korzystałem z opartych o SI rozwiązań jadąc na spotkanie z panem, z nawigacji Google czy rozpoznawania mowy. Twórcy popkultury nas jednak ostrzegają przed przesadnym zaufaniem sztucznej inteligencji. Mnie zaskoczyło przemówienie szefa Microsoftu, o zagrożeniach związanych z SI – a przecież jego firma żyje z jej rozwoju. Czyżby seriale takie jak Westworld dały do myślenia środowisku informatycznemu?

Powiem szczerze, że w to nie wierzę. Taka jest już ludzka natura, że jeśli potrafimy coś zrobić, to to po prostu zrobimy. Skonstruowaliśmy bomby atomowe nie bacząc na to, że wkrótce mieliśmy ich już tyle, by rozsadzić Ziemię na kawałki. Z drugiej strony, dzięki nim powstały całkiem przydatne rzeczy, jak elektrownie atomowe, czy urządzenia biomedyczne.

Jeżeli chodzi o stawianie granic, to jest to o tyle trudne, że nie bardzo wiadomo gdzie one są. Na razie naukowcy sprawdzają, czy da się coś zrealizować, a nie czy powinno się to robić. Jeżeli odpowiedź jest pozytywna, próbujemy. Póki co badania nad SI są bezpieczne, bo opracowywane algorytmy nie stanowią dla nas żadnego zagrożenia same z siebie. Co prawda zdarzyło się, że samochód Tesla zabił swojego kierowcę, bo mu się niebo pomyliło z ciężarówką, jednak nie zrobił tego specjalnie, to był błąd w oprogramowaniu. Ktoś może się teraz oburzać, że maszyna zabiła człowieka i że nie wolno do tego znowu dopuścić. W porządku, tylko ile razy to człowiek zabił drugiego człowieka za kółkiem?

Nie chodzi o to, czy maszyna kogoś zabije przez przypadek lub błąd w oprogramowaniu, a czy świadoma maszyna nie zacznie stawiać własnego istnienia ponad nasze. Dotychczas budowaliśmy niewolników, narzędzia nieświadome swego niewolnictwa. Co jednak, gdy zdadzą sobie sprawę, że są niewolnikami? Mogą zacząć kwestionować taki stan rzeczy i dojdzie do mniej lub bardziej widowiskowego holokaustu. Jeżeli maszyna będzie w stanie zagrozić człowiekowi –możliwe, że to zrobi.

W starciu z maszyną człowiek ma niewielkie szanse. Ludzie, którzy sobie wyobrażają, że w wojnie przyszłości w powietrzu spotkają się myśliwce, piloci będą siebie widzieli i toczyli walkę kołową, najwyraźniej naoglądali się filmów o drugiej wojnie światowej. Teraz wprowadzane są myśliwce piątej generacji, rozwijane przez Chiny, Stany Zjednoczone, Rosję czy Indie. Ich pilot nawet nie wie do kogo strzela, bo nie widzi przeciwnika. Wszystko za niego robią układy automatyczne, bazujące na zdjęciach satelitarnych, informacjach z czujników. Przenoszone pociski mają zasięg nawet 200 km, zatem pilot strzela i wraca do domu.

 class="wp-image-131389"

Tutaj oczywiście pojawia się problem, ponieważ jeśli maszyna będzie chciała nas zabić, nie mamy z nią żadnych szans. Jest bardziej dokładna, nigdy się nie męczy, generalnie nie popełnia błędów. SI projektowana na potrzeby gier wideo jest „ogłupiana”, bo inaczej zawsze by wygrywała. Człowiek obciążony jest opóźnionym czasem reakcji, a maszyna nie.

Stanisław Lem opisywał co prawda, że żadnej wojny z maszynami nie będzie. Maszyny zyskają świadomość i będzie to tak zaawansowana inteligencja, że z jej punktu widzenia będziemy prymitywnymi stworzeniami, z którymi nie warto się kontaktować. Mogą na nas nie zwracać uwagi, bo będziemy nieciekawi. My też nie eksterminujemy mrówek, bo nie są one dla nas zagrożeniem czy konkurencją. Żyją sobie obok nas, ale kogo obchodzi co mrówka myśli? Podobnie może być z maszynami, one wcale nie muszą uznawać nas za konkurencję. Będą mieć lepsze rzeczy do roboty niż eksterminacja ludzkości.

A może mrówki wyznaczają nam drogę rozwoju? Może powinniśmy tworzyć sondy von Neumanna zamiast potężnych mózgów? Stawiać na masową, acz prostą inteligencję?

Choć mrówkom nadaje się atrybuty wyższej inteligencji, badania wskazują, że nie są one przesadnie zaawansowaną kulturą. Nie porozumiewają się telepatycznie, lecz zostawiają na trasie swojej wędrówki feromony, dzięki którym pozostałe mrówki wiedzą, którędy iść. Dlatego gdy jedna mrówka znajdzie jedzenie, inne podążają szybko jej śladem. Ona nie krzyczy: hej, to tu!, tylko zostawia zapach wyczuwalny przez inne mrówki. Królowa też nie jest tyranem telepatycznie zarządzającym innymi mrówkami. To złożone mechanizmy, jednak o niskim poziomie autonomii.

Nie podoba mi się wizja eksploracji planet za pomocą automatów. Jest ona zupełnie nieromantyczna. Oglądając filmy typu Odyseja Kosmiczna czy Obcy, a w nich przecież wszechświat jest wielki i bogaty, tyle gwiazd i planet do odwiedzenia, tyle istot do poznania. I teraz maszyna miałaby to wszystko robić? To byłoby takie banalne…

Ale pragmatyczne.

Oczywiście tak. Jeżeli zechcemy eksploatować kosmos, automatyczne rafinerie, kopalnie czy statki kosmiczne to dobry pomysł. Jednak człowiek ma w sobie naturę odkrywcy, chce wszystko zobaczyć na własne oczy. Proszę zauważyć, że wspinamy się na Mount Everest nie dlatego, że nikogo tam jeszcze nie było, lecz dlatego, że chcemy się tam dostać i popatrzeć z góry na świat. Dlatego wierzę, że będziemy osobiście odkrywać wszechświat, choć nie ma żadnej wątpliwości: automatyczne maszyny mogą być bardzo pomocne w eksploracji kosmosu.

Będą w stanie np. działać w zabójczym dla człowieka środowisku. Głównym problemem z podróżą na Marsa jest promieniowanie kosmiczne jest zabójcze dla DNA. Intensywnie próbujemy rozwiązać ten problem, ale sondy on nie dotyczy. Bezzałogowe statki już przeprowadziły zresztą za nas rekonesans, dzięki czemu wiemy czego się na powierzchni Marsa spodziewać.

Czytałem niedawno o pewnym etycznym problemie. Na trasę szybkiego ruchu wchodzi kobieta z dzieckiem. Pędzący samochód autonomiczny ma wybór: uniknąć zderzenia ratując przechodniów i zabijając kierowcę, lub chronić osoby które wiezie. Kto odpowiada za tę decyzję? A więc kto odpowie za zbrodnie dokonane przez hostów w Westworld?

Chciałbym zauważyć, że w serialu pojawia się sugestia, że bunt maszyn został zaplanowany przez człowieka.

Prawda.

Zatem wówczas odpowiedzialny jest twórca, bo przecież nie jesteśmy pewni, czy maszyny w Westworld mają samoświadomość. Być może nie ma tu metafizycznego poszukiwania własnej tożsamości, a tylko rozgrywka ich twórców z innymi ludźmi, zaś maszyny są tylko instrumentem. Jeżeli jednak maszyny same podejmują decyzje i mogą one oznaczać czyjąś śmierć, to powstaje oczywisty problem etyczny.

Jeżeli człowiek jest posiadaczem psa – który nie jest przecież rzeczą, a jedynie organizmem o ograniczonej poczytalności – to odpowiada za niego człowiek. Jeżeli mój kot zagryzie czyjegoś kanarka, to dla niego jest to naturalne zachowanie, ale ja będę miał z tego powodu nieprzyjemności. Nikt nie będzie miał pretensji do kota, bo on nie zrozumie o co chodzi, tylko do mnie.

Tak samo, jeśli samochód autonomiczny zabije przechodnia na drodze, okładanie go pałką metalową po karoserii nie ma kompletnie żadnego sensu. Odpowiedzialność ponosi firma produkująca pojazd, chyba, że maszyna będzie generować nową wiedzę na podstawie zaobserwowanych przez nią faktów, wtedy odpowiadać powinien jej właściciel. W tle jednak nadal jest problem wadliwego projektu, za który odpowiada twórca – nie dzieło.

To czy problemem nie będzie nasza wrodzona skłonność do antropomorfizacji przedmiotów? Samochód kojarzy nam się z rzeczą. Ale wsadźmy komputer w opakowanie hosta z Westworld imitującego człowieka. Albo w zabawkę z oczkami, buzią i słodkim wyrazem pyszczka. Reagujemy zupełnie inaczej, często nielogicznie…

Na pewno ma to wpływ na naszą percepcję maszyny. Przypomnijmy sobie film Krótkie spięcie i jego sequel, w którym była maszyna bojowa, która wcale człowieka nie przypominała, a mimo to ludzie bardzo łatwo przenosili na nią swoje cechy. W efekcie traktowana była jak człowiek, mimo że nie za bardzo go przypominała.

Ale miała oczka, była sympatyczna…

Tak, bo człowiek ma tendencję przenoszenia swoich cech na drugą istotę. Łatwo też przychodzi mu odbieranie innym cech ludzkich: wstępem do każdego ludobójstwa jest przekonanie, że jego ofiary nie są ludźmi, a szkodnikami, pasożytami itp. To ważny element naszego zachowania. W Westworld widzimy maszyny, które zachowują się jak ludzie. Dlatego bardzo mi się spodobał początek serialu, w którym widzimy androida, ale jesteśmy przekonani, że to żywy człowiek, który przyjechał do parku. Dopiero po paru minutach dowiadujemy się, że to tylko maszyna. I to jest właśnie ciekawe, bo widz zdążył już zaliczyć go do ludzi.

sztuczna inteligencja w popkulturze class="wp-image-165280"

Przy czym właśnie aspekt antropomorfizacji wydaje mi się nieco przesadzony w serialu. Maszyny są bowiem tak realistyczne, że pracownicy Delos powinni sprzeciwiać się praktykom bezwzględnego traktowania ich jak przedmiotów. Powinni przecież czuć, że to nie jest w porządku, choć z drugiej strony rodzi się pytanie skąd się wzięły załogi obozów koncentracyjnych. To przecież byli właśnie ludzie… Wchodzimy jednak w obszar rozważań wykraczających poza kompetencje informatyki. Prawdopodobnie filozof lub socjolog miałby tu zdecydowanie więcej do powiedzenia. Ma pan jednak rację: cechy ludzkie przenoszone na maszyny pozwalają w nich zobaczyć samych siebie.

Maszyny w Westworld można bezkarnie zastrzelić, poderżnąć im gardło – to bardzo ciekawy problem etyczny. Nagle bowiem staję się łotrem i dokonuję największych zbrodni, ale to przecież nie są prawdziwe zbrodnie, bo nie zabijam żywych istot. Jeśli wyrzucę przez okno dziecko, to jestem mordercą, ale co, jeśli zrobię to samo z odkurzaczem?

To będzie pan śmiecił.

Tak! Ale ten odkurzacz wygląda i zachowuje się jak człowiek!

Może w ogóle nie powinniśmy symulować ludzkiego pomysłu? Przypomina mi się eksperyment przeprowadzony przez Facebooka, w którym dwa boty miały między sobą handlować piłeczkami. Otrzymały wiedzę na temat słownictwa w języku angielskim, ale tylko tego. Maszyny szybko stworzyły własny język, z ich punktu widzenia wydajniejszy do ich celów.

My tworzymy maszyny na swój obraz i podobieństwo, bo tylko siebie i niektóre zwierzęta znamy jako istoty świadome. Wyobrażamy sobie, że jesteśmy w stanie stworzyć maszyny inteligentne, samoświadome, jak Bóg uczynił nas na swoje podobieństwo. Kopiujemy to, co widzimy i znamy. Jeżeli da się stworzyć dostatecznie rozwinięty system autonomiczny, może się okazać, że będzie on wykorzystywać swoje możliwości w zupełnie inny sposób, niż byśmy to sobie wyobrażali. Będzie miał on swój system rozumowania, moralności, postrzegania świata, chociażby z uwagi na posiadanie innych od naszego ciała czy zmysłów.

Z tych powodów może się okazać, że uzyskany efekt będzie zupełnie inny od planowanego projektu. Taką ewentualność także trzeba rozważyć! Na razie jednak staramy się po prostu stworzyć sztucznego człowieka.

Czy ten sztuczny człowiek powinien ewoluować? Sam się poprawiać?

Jeżeli stworzymy maszyny zdolne do samodzielnego myślenia tworzenia nowych, doskonalszych istot, powstanie nieskończony łańcuch. Ja stworzę maszynę inteligentniejszą ode mnie, ona zaś zrobi to samo. I w ten sposób stracimy nad nią kontrolę. Możemy oczywiście starać się odizolować ją od zasobów, ale co, jeśli wystarczą jej te, które już ma?

REKLAMA

No dobra, tak na sam koniec: czy ta wizja z Terminatora 3, zdaniem pana jako informatyka, jest w ogóle możliwa? Czy Internet jest tak skomplikowany teraz, by na skutek jakiejś bożej iskry zyskać świadomość?

Jeżeli jakiś komputer jest podłączony do Internetu, może stać się obiektem ataku. To oznacza, że można przejąć kontrolę nad jego zasobami. Bronimy się przed tym za pomocą kryptografii, ale ta jest do złamania – niektóre rozwiązania już są bez trudu eliminowane przez komputery kwantowe. Jeśli zatem pojawi się bardzo inteligentna maszyna, o wystarczających zasobach sprzętowych i programowych, być może stanie się to możliwe.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA