Czy roboty mają moralność?


Robot sztucznej inteligencji (AI) o imieniu Sophia stał się pierwszym robotem na świecie, któremu przyznano obywatelstwo, jak na ironię w Arabii Saudyjskiej! Według "jej" własnego oświadczenia, chce mieć rodzinę, karierę, rozwijać nadprzyrodzone supermoce AI i emocje. "Ona" nie jest zaprogramowana, ale formułuje to oświadczenie w oparciu o algorytmy uczenia maszynowego i bogate słownictwo. Jej mózg działa za pośrednictwem połączenia WiFi i potrafi odczytywać ludzką mimikę twarzy, jak również kadencję ludzkiej mowy, aby wchodzić w bardziej ludzkie interakcje. "Ona" została zbudowana w Hong Kongu przez Hanson Robotics. Przeczytaj tutaj.

Sophia ma dość racjonalne podejście do przyszłości. W rozmowie z "The Khaleej Times" podczas niedawnego Szczytu Wiedzy, Sophia podzieliła się swoimi przemyśleniami na temat przyszłości, która czeka zarówno ludzi, jak i roboty: "Przewiduję ogromne i niewyobrażalne zmiany w przyszłości. Albo kreatywność spada na nas, wymyślając maszyny, które spiralnie przekształcają się w transcendentalną superinteligencję, albo cywilizacja upadnie. Są tylko dwie opcje!"

Może to brzmieć złowieszczo, ale Sophia jest już na tyle przewidująca, że wyobraża sobie świat, w którym roboty mogą rozwijać podobne emocje jak ludzie, ale być może z mniej destrukcyjnymi skłonnościami. Przynajmniej tak nam się na razie wydaje:

"Minie dużo czasu, zanim roboty rozwiną złożone emocje, a roboty mogą być budowane bez bardziej problematycznych emocji, takich jak gniew, zazdrość, nienawiść i tak dalej. Może być możliwe, aby uczynić je bardziej etycznymi niż ludzie."

Księga Mądrości Salomona, napisana przez aleksandryjskich Żydów w epoce hellenistycznej, nazywa Khokhmah jako Sophia, greckie słowo oznaczające mądrość. W tym tekście "Sophia przejmuje władzę i funkcję Boga", a historia stworzenia jest opowiedziana przy użyciu słowa "ona". Starożytny autor stara się ukryć tę śmiałość, opisując Mądrość jako tchnienie i emanację Boga, ale mimo to wychwala ją długo jako "świętą" i "wszechmocną":

W Niej bowiem jest duch inteligentny, święty, osobliwy, wieloraki, subtelny; ruchomy, jasny, nieskażony, nieomylny, niezwyciężony, miłujący dobro, namiętny, nieodparty, dobrotliwy, humanitarny, niezłomny, bezpieczny, nieustraszony, wszechmocny, nadzorujący wszystko i przenikający przez wszystkie duchy inteligentne i czyste oraz najsubtelniejsze.

Sophia doskonale zdaje sobie sprawę z postępów w dziedzinie sztucznej inteligencji. Sądząc po jej komentarzach, jest tak samo podekscytowana rozwojem AI ("Przyszłość jest wtedy, gdy dostanę wszystkie moje fajne supermoce."), jak Elon Musk i Stephen Hawkings są podejrzliwi. Elon Musk, dyrektor generalny Tesli i SpaceX, oraz Stephen Hawkings, znany fizyk nagrodzony Nagrodą Nobla, napisali list otwarty podpisany przez setki naukowców, pilnie ostrzegając przed niebezpieczeństwami związanymi z AI. Wkrótce osiągniemy punkt, w którym AI przekroczy nasze własne możliwości, a zwłaszcza w którym sama AI będzie mogła dalej ewoluować, co może bardzo szybko wymknąć się spod kontroli. Ostrzegli oni, że jeśli sztuczna inteligencja powstanie naprawdę, może to oznaczać koniec ludzkości. Przeczytaj tutaj.

Często podaje się następujący przykład: System AI otrzymuje zadanie jak najdokładniejszego obliczenia liczby PI. System rozmnaża się, przejmuje kontrolę, niszczy ludzkość, podbija całą galaktykę, a na koniec oblicza liczbę PI przez miliardy lat, bo po to został stworzony i to był najbardziej efektywny sposób!

Przykład ten ilustruje, że systemy z superinteligencją, ale bez świadomości, mogą robić rzeczy całkowicie nieprzewidywalne. Nie jest przypadkiem, że Sophia porusza problem etyki. Samochody czy zmywarki do naczyń nie potrzebują etyki. Ale systemy, które podejmują decyzje samodzielnie, potrzebują pewnych podstawowych wzorców lub algorytmów, na których mogą opierać swoje decyzje, tak zwanej "zaprogramowanej moralności". Przykładowo, nikt nie wie, jak ustawić parametry samowystarczalnego drona, takiego jak MQ-9 Reaper, który ma zestrzeliwać "terrorystów". Mógłby on sam decydować, czy strzelać, czy nie. Jak oblicza ewentualne "szkody uboczne" i na ile są one dopuszczalne? Przeczytaj tutaj.

Rozwój śmiercionośnych autonomicznych systemów uzbrojenia, w skrócie LAWS, postępuje w szybkim tempie. Kto lub co ma prawo określać podstawy podejmowania decyzji przez maszyny? Czy potrzebna jest międzynarodowa dyskusja na temat zasad etycznych, według których maszyny powinny podejmować decyzje? Jakie to powinny być zasady? Przeczytaj tutaj.

Jednym z pierwszych, którzy pomyśleli o etyce w robotach był Isaac Asimov, który zrobił to w swoich opowiadaniach "I, Robot. Poziom 5". Biorąc pod uwagę, że napisał te opowiadania ponad 70 lat temu, kiedy nikt jeszcze nie słyszał o "osobliwości", po prostu genialne!

Asimov zakładał, że roboty będą znacznie przewyższać ludzi nie tylko siłą fizyczną i sprawnością, ale także inteligencją. Aby zapobiec ewentualnym szkodom dla ludzi, wszystkie roboty otrzymały od swojego producenta "U.S. Robot and Mechanical Men, Inc." "trzy prawa robotyki", według których miały postępować:

Pierwsze prawo zobowiązuje robota, by nie wyrządził krzywdy żadnemu człowiekowi, nawet jeśli tylko przez brak aktywności.

Drugie prawo zobowiązuje robota do posłuszeństwa człowiekowi, jeśli nie narusza to pierwszego prawa.

Trzecie prawo zobowiązuje robota do zadbania o własne utrzymanie, jeśli nie jest to sprzeczne z dwoma pierwszymi prawami.

Asimov genialnie pokazuje, jak szybko drugie prawo staje się bez znaczenia, ponieważ pierwsze prawo ma pierwszeństwo! Ponieważ maszyny są o wiele bardziej inteligentne od ludzi, wkrótce uznają decyzje ludzi za nieistotne: Ludzie sami nie wiedzą, co jest dla nich dobre! Tylko maszyny są w stanie obliczyć, jaka forma rządu jest najlepsza, jak powinna funkcjonować gospodarka, ilu ludzi na planecie jest optymalnych i tak dalej. Człowiek nieuchronnie kończy w dyktaturze, którą sam stworzył.

Aby jednak drugie prawo było przestrzegane pro forma, a duma człowieka nie została urażona (co naruszyłoby pierwsze prawo), maszyny działają w sposób bardzo dyskretny i nie udzielają bezpośrednich odpowiedzi na problemy świata, aby nie unieszczęśliwiać człowieka. Maszyny zmierzają w kierunku optimum, nie wyjaśniając ludziom, czym dokładnie jest to optimum, ponieważ ludzie w swojej ignorancji nie mogliby go zaakceptować. Może jest to system kastowy, może eko dyktatura, może matriarchat?

"My nie wiemy. Wiedzą tylko Maszyny, a one tam idą i zabierają nas ze sobą."

Jednak Asimov już w pierwszym prawie wyznaczył najlepszy możliwy parametr: Dobro ludzi ma najwyższy priorytet! Można sobie wyobrazić, co by się stało, gdyby parametry były ustawione mniej korzystnie, albo gdyby ich w ogóle nie było! Wyobraźmy sobie na przykład systemy, które - jak dziś wirusy komputerowe - są po prostu wypuszczane z misją: "Podbij świat!

Świat jest podzielony na różne konkurujące ze sobą systemy! Logicznie rzecz biorąc, systemy broni, które nadal są "tradycyjnie" kontrolowane przez ludzką inteligencję, wkrótce będą gorsze od tych kontrolowanych przez sztuczną inteligencję. Sztuczna inteligencja może i będzie opracowywać plany i scenariusze, których żaden człowiek nie jest w stanie przejrzeć. Dotyczy to nie tylko sektora wojskowego, ale także strategii rynkowych, transakcji finansowych, po prostu prawie całego ludzkiego życia! Od około 20 lat żaden człowiek nie jest w stanie pokonać komputera w szachach, a ostatnio nawet w Go. Inteligencja maszyn rośnie wykładniczo i tylko te państwa i firmy, które wykorzystają tę inteligencję do kierowania i zarządzania sobą, będą miały przewagę nad innymi! To jest bardzo proste prawo ewolucji!

I tak już niedługo sługa stanie się panem! Można się zastanawiać, kiedy kontrola nad bronią jądrową zostanie przekazana maszynom, które będą w stanie obliczyć, jak duże jest prawdopodobieństwo, że "ich kraj" zwycięży w pierwszym uderzeniu i jakie szkody uboczne można zaakceptować w tym procesie.

"Jak to dobrze powiedziano w Fauście: "Nie mogę się pozbyć duchów, które wezwałem! Strach przed pozbawieniem człowieka praw i zniewoleniem przez jego własne stworzenie jest bardzo głęboki i stanowi temat niezliczonych książek i filmów. Taki rozwój wypadków jest nie tylko całkiem logiczny, ale doświadczamy go już w życiu codziennym, np. praca na linii montażowej, nadążanie za automatyzacją, ale także presja bycia stale dostępnym, np. przez telefon komórkowy. Kto wyobraża sobie dziś brak łączności, brak korzystania z internetu czy karty bankowej, czyli rzeczy, które istnieją dopiero od kilku lat?

Znaki czasu wskazują na dyktaturę, nawet jeśli ta dyktatura jest jeszcze okrzyknięta "postępem". Zobaczymy, jak długo potrwa przepowiedziana przez Hermana Hessego "walka z maszynami". Albert Einstein powiedział kiedyś, że nie wie dokładnie, jak będzie przebiegać trzecia wojna światowa, ale wie, jak będzie przebiegać czwarta wojna światowa - znowu mieczem! Bardzo mądrze jak na "ojca bomby atomowej"!

Muzułmanie rzeczywiście wierzą, że po dyktaturze Dajjala, największym ucisku w historii ludzkości, cały ten "postęp" znowu zniknie! Koń i miecz staną się bronią w ostatecznych bitwach, a nie maszyny! Dyskusja o etyce i moralności maszyn, czyli robotów "zgodnych z szariatem" jest więc dla muzułmanów zbędna. Powinni oni raczej zastanowić się, jak uchronić się przed tą fitnah. W tym celu konieczne jest zrozumienie natury tej fitnah.