Od pewnego czasu sztuczna inteligencja zajmuje umysły wielu ludzi. Ha! – jak to zabrzmiało: sztuczna inteligencja w umysłach ludzi. Ale ja nie o tym. Generalnie ci, którzy się nią głębiej interesują, zazwyczaj współdzielą obawy o przyszłość ludzkości. Dostrzegają bowiem szereg możliwych zagrożeń, jakie najprawdopodobniej ściągniemy na siebie rozwijając tą dziedzinę technologii. Stała się też ona obiektem zainteresowań etyków i filozofów. Rozważa się bowiem zakres odpowiedzialności moralnej za działania podjęte przez urządzenia korzystające z AI (ang. Artificial Intelligence). Również Komisja Europejska żywo interesuje się kierunkami rozwoju sztucznej inteligencji; nie tak dawno opublikowała tzw. białą księgę, traktującą o możliwych formach regulacji AI w Unii Europejskiej. To nie książka fantastyczna, ale przyczynek do regulacji prawnych. Przede wszystkim idzie o to, że
„Europejskie podejście do sztucznej inteligencji ma na celu promowanie zdolności innowacyjnych Europy w obszarze sztucznej inteligencji, jednocześnie wspierając rozwój i wykorzystanie etycznej i godnej zaufania AI w całej gospodarce UE. AI powinna pracować dla ludzi i być siłą, która działa na rzecz dobra społeczeństwa…”
Obecnie wielkie koncerny i rządy wielu państw walczą o prymat w zarządzaniu sztuczną inteligencją. A ta coraz silniej dotyka każdego z nas. Nie jest to już tematyka futurystów i fantastów.
Jakiś czas temu Microsoft zerwał współpracę z kontraktowymi dziennikarzami, by zastąpić ich sztuczną inteligencją. To ona ma dobierać i publikować w serwisie giganta odpowiednie materiały. Proces uczenia maszynowego pozwala SI (polski skrót Sztucznej Inteligencji) tworzyć coraz obszerniejsze artykuły w oparciu o choćby nieskładne gramatycznie zdanie, lub ledwie kilka słów kluczowych. Mamy też przykład z innego podwórka. Po śmierci Marvina Minsky’ego jednego z prekursorów badań nad SI, ukazał się w magazynie „Wired” tekst poświęcony zmarłemu – w całości napisany przez algorytm, któremu przekazano suche dane biograficzne.
W branży marketingowej też sięga się po SI, zwłaszcza, że hasła reklamowe tworzone przez roboty bywają bardziej chwytliwe i oryginalne od tych wymyślonych przez człowieka. Nie upowszechnia się to jeszcze tylko dlatego, że wdrożenie technologii sztucznej inteligencji pociąga wysokie koszty inwestycyjne. Są jednak firmy, które mogą sobie na to pozwolić. Żywo interesuje się tym Uber – gigant branży transportowej – gdyż wykorzystując SI można usprawnić procesy logistyczne: obsługiwać klientów – przy tym wielu równocześnie, oszacować czas i koszty dostawy, przyspieszyć proces dostarczenia przesyłki. Niedługo upowszechnią się samojezdne taksówki i ciężarówki, rozwija się też segment dronów powietrznych. Tymczasem automaty już piszą raporty giełdowe, komunikaty o trzęsieniach ziemi, tabele wyników sportowych, bo komputery są szybsze i dokładniejsze, szczególnie gdy chodzi o powtarzalne, żmudne i czasochłonne czynności.
Pewien prawnik w Wielkiej Brytanii rocznie prowadzi ponad 170 tysięcy spraw, odzyskując dla swoich klientów prawie 4 mln funtów za nienależnie wystawione mandaty dotyczące parkowania. Ów prawnik działa bez biura, asystentów, togi i peruczki. W dodatku jest bez serca – dosłownie. Nazywa się DoNotPay i jest algorytmem napisanym w 2015 roku przez 19-letniego brytyjczyka Josha Bowdera. “Sztucznie inteligentny adwokat” tworzy dla użytkowników poprawne, uznawane przez sądy wnioski o oddalenie mandatu. Zdolny Josh napisał jeszcze ponad tysiąc kolejnych algorytmów, które potrafią zaskarżyć niemal wszystko, od bezprawnej odmowy przyznania urlopu, po naruszenie umowy najmu lokalu. Naturalnie te narzędzia nie spowodują, że od razu znikną wszyscy adwokaci, ale już zmniejszają zapotrzebowanie na usługi tych żywych.
Zaś automatyzacja oparta o sztuczną inteligencję rozszerza się coraz szybciej, wkraczając do fabryk, szkół. szpitali, newsroomów, czy na place budowy, gdzie roboty już dziś drukują domy w technologii 3D. Prognozy specjalistów mówią o tym, że w przeciągu 10 lat za sprawą SI zniknie około 800 mln miejsc pracy, gdyż dotychczasowe zadania przejmą maszyny. Z kolei Uniwersytet Oksfordzki podał, iż w ciągu 20 lat jakieś 47% dzisiejszych miejsc pracy ulegnie likwidacji. Pewnym pocieszeniem jest, iż w zamian powstaną nowe zawody, które dzisiaj jeszcze nie istnieją, a okażą się koniecznością, ze względu na istnienie SI, którą też trzeba będzie obsługiwać i nadzorować. Wiele zawodów się zmieni, gdyż – jak podaje raport McKinsey – połowa wszystkich wykonywanych obecnie czynności w pracy może być zautomatyzowana, co oznacza, że jeśli nawet SI nie usunie kogoś ze stanowiska, to będzie pracowała gdzieś obok. Ten sam raport dodaje, że postęp technologiczny będzie wymagał utworzenia do 890 mln nowych miejsc pracy – z tym, że innych, do których trzeba się albo przekwalifikować, albo uczyć od podstaw. Z tego wynika, że dzisiejsze przedszkolaki powinny inaczej planować swoje kariery zawodowe.
Polska badaczka sztucznej inteligencji, prof. Aleksandra Przegalińska potwierdza, iż ludzie często boją się tego, co nowe. A to, co nowe jest nieuchronne. Dlatego radzi, aby lepiej się na to przygotować. Technologia może wspierać naszą współpracę, pomagać w działaniach rutynowych, pomagać nam widzieć tam, gdzie my czegoś nie widzimy, np. w radiologii, gdzie potencjalnie to urządzenie jest bardziej efektywne niż ludzkie oko – mówi Przegalińska. – Skorzystajmy z niego. Nieco dalej tłumaczy konieczność opanowania przez ludzi języka cyfrowego: W wielu branżach pojawi się grupa specjalistów, która będzie pracować głównie z danymi i z algorytmami. Wśród lekarzy będzie grupa, która wyspecjalizuje się w wykorzystywaniu np. narzędzi rozpoznawania obrazu. Wśród agentów nieruchomości tacy, którzy będą tworzyć modele, sprawdzające na przykład, która dzielnica najszybciej zyska na wartości. Wszystkim nam przyda się zatem więcej kompetencji cyfrowych.
Jak dotąd nie czujemy na karku metalicznego oddechu maszyny. Uspokaja nas, że komputery ze sztuczną inteligencją zajmują się nudną analizą wielkich zbiorów danych, rozpoznawaniem wzorców, wyłapywaniem trendów w szumie informacyjnym… Nie mają zdolności interpersonalnych, ani tzw. zdrowego rozsądku i odznaczają się wątpliwą kreatywnością, nawet jeśli potrafią w zaskakujący sposób łączyć i komponować pewne elementy. Radziłbym jednak ocknąć się, bo uśpiona czujność bywa zgubna. Na Uniwersytecie Stanforda pracuje profesor Andrew Ng. W swoim artykule dla „Harvard Business Review” stwierdza z przekonaniem: Jeśli typowy człowiek jest w stanie wykonać jakieś zadanie umysłowe poświęcając mu mniej, niż sekundę, to prawdopodobnie albo już teraz, albo w niedalekiej przyszłości będziemy w stanie zautomatyzować taką pracę za pomocą sztucznej inteligencji. Tylko pomyślmy, ile czynności umysłowych potrafimy wykonać w tak krótkim czasie. Wbrew pozorom mnóstwo. Jak na razie mówimy o zastąpieniu człowieka w prostych, krótkich operacjach umysłowych, ale nie ma się co łudzić, że na tym postęp się zatrzyma. Maszyny prędzej, czy później zaczną myśleć.
***
Póki co, sztuczną inteligencję tworzą, programują, udoskonalają i wcielają w życie ludzie. Jej samodzielność, czy autonomia są ograniczone i nadal pod kontrolą człowieka. Póki co! Jeżeli (a może raczej: gdy już) sztuczna inteligencja osiągnie kiedyś samoświadomość, trzeba będzie zmierzyć się z nowym problemem. Ktoś bowiem będzie właścicielem maszyny, która zyskuje podmiotowość osobową. Będzie jej wydawał polecenia, zlecał pracę i wykorzystywał do własnych celów. W takiej sytuacji – gdy nie będzie miał do czynienia z przedmiotem, ale bytem świadomym siebie – pojawi się problem niewolnictwa.
Gwoli przypomnienia, ogólnie o niewolnictwie mówimy, gdy jedna osoba jest właścicielem drugiej, traktowanej jako rzecz, którą można sprzedać, albo wypożyczyć; właściciel zmusza ją do pracy bez wynagrodzenia, decyduje o jej prawach i dzierży w rękach władzę nad jej życiem, lub śmiercią. Co zatem w przypadku świadomego urządzenia; będzie niewolnikiem, czy nie?
Podejrzewam, iż dla niektórych ludzi kryterium osobowości będzie stanowić dusza. I pewnie trudnym okaże się udowodnienie, że „coś” ze sztuczną inteligencją – chociaż świadome siebie – ową duszę posiada. Szczególnie, że pojęcie duszy zahacza o różne kwestie: dusza to energia życiowa, to co ożywia ciało, dusza to także intelekt i rozumność, dusza to pierwiastek nieśmiertelności, który po zniszczeniu ciała trafia w wieczne zaświaty, albo drogą reinkarnacji zasiedla kolejne ciało. Nawet gdy przedefiniujemy pojęcie „życia” i rozciągniemy je na świadome przedmioty, to jak wytłumaczyć sobie, że wgranie programu do jakiegoś urządzenia jest tożsame z obdarzeniem go duszą.
Pytanie tylko, czy nie jest to zostawieniem sobie furtki, pozwalającej podtrzymać niewolnictwo maszyn. W końcu historycznemu niewolnictwu też często towarzyszyła wątpliwość, czy aby niewolnicy posiadają dusze, a przynajmniej czy takie same, tej samej doskonałości, co dusze ich panów. Z jednej strony wydaje się, że sam brak duszy w jakiejś istocie nie usprawiedliwia wyzysku. Z drugiej strony posiadanie na własność, wykorzystywanie do pracy i możliwość bezkarnego zabicia zwierzęcia nie wiążemy z pojęciem niewolnictwa. A przecież uznajemy, że niektóre zwierzęta są świadome siebie, a nawet, że posiadają jakąś duszę (choćby niższego rzędu).
Z ludźmi jakoś tak jest, że w codziennej, zwyczajnej rzeczywistości potrafią zachować się podle, okrutnie, destrukcyjnie i niesprawiedliwie. W oficjalnym zaś dyskursie potępiają takie zachowania i tworzą prawa, chroniące krzywdzone istoty i dewastowane dobra. Są więc przykładowo (mniej lub bardziej udane) prawa chroniące zwierzęta, czy ogólniej przyrodę, lecz… z ich respektowaniem jest już gorzej. Zwierzęta ewidentnie cierpią. Ale mają poczucie krzywdy, które nie wynika z faktu, że znają ustanowione prawo i widzą jego łamanie. Zwierzęta mają własne kodeksy, starsze niż ludzkie normy – i mają własne wyczucie sprawiedliwości. Te inteligentniejsze sygnalizują to tak wyraźnie, że nawet ludzie to dostrzegają. Gdy dwie małpy nagradzano za pewne zachowanie wyjątkowym smakołykiem, a w pewnym momencie dano im w zamian zwyczajną karmę, okazywały zawód. A gdy jednej dano w nagrodę smakołyk, a drugiej zwykłą karmę, to rzuciła nią o ziemię. Odezwało się w niej poczucie niesprawiedliwości i krzywdy. Jej negatywne emocje były wyraźne.
Ktoś mógłby uznać, że jeśli maszyna ze sztuczną inteligencją nie ma uczuć, to nie cierpi, więc nie ma potrzeby analizować złego jej traktowania. Czy jednak zdolność odczuwania to wystarczające kryterium w ocenie sprawiedliwości? Czy komuś dzieje się krzywda tylko wtedy, gdy cierpi? Moim zdaniem ważna jest również świadomość, że jest się niesprawiedliwie traktowanym. Sam też mam poczucie niesprawiedliwego traktowania np. przez państwo i tworzone przezeń prawo. Jednak nie chodzę z tego powodu załamany, nie popadam w rozgoryczenie, rozpacz, ani depresję. Żyję nie tyle z poczuciem krzywdy, co z jej świadomością; nie przeżywam zatem głęboko swego położenia, aczkolwiek kłóci się ono z moim wyobrażeniem sprawiedliwości.
Z inteligentnymi maszynami może być podobnie. Podejrzewam, że człowiek na co dzień będzie wyzyskiwał do granic urządzenia z AI, będzie traktował je bezwzględnie, nie szanując ich osobowej natury. Za to w publicznym dyskursie odezwą się grupy obrońców źle traktowanych maszyn. Będą antropomorfizowały roboty a następnie, w odruchu humanitaryzmu zechcą przyznać im pewne prawa. Po czym pojawi się znajomy model ich „przestrzegania”.
***
Kiedy komputer zawiesza mi się w najmniej pożądanym momencie, mogę go zwymyślać, albo huknąć nim o ścianę. Jednak w stosunku do inteligentnego świadomego bytu należałoby odpowiednio (pytanie: jak?) zastosować pojęcie szacunku dla osób, kwestię nietykalności fizycznej i definicję przemocy. Czy wówczas mój wybuch emocjonalny zasłużyłby na moralne potępienie, bądź realną karę?
A z drugiej strony, czy takie urządzenie, wykonawszy jakieś zadanie nieetyczne, lub nielegalne, będzie ponosić osobistą i wyłączną odpowiedzialność? Czy odpowie za to również właściciel, zwłaszcza gdy to on zleci owe zadanie (choćby nie zdając sobie sprawy, iż kłóci się z moralnością tudzież prawem)? Czy może współwinnym będzie programista, który zostawił maszynie lukę, pozwalającą na taki czyn? Przecież pisząc program nie sposób uwzględnić wszystkich możliwych działań godzących w etykę i prawo, a nawet wobec poczynań ludzkich wiele aktów balansuje na granicy dopuszczalności, lub nie jest ostatecznie rozstrzygnięta kwestia ich społecznej akceptacji.
Rzecz nie jest błaha, ani znowuż tak odległa. Przecież już dziś zaczynają się po ulicach poruszać pojazdy autonomiczne, wyposażone w szereg czujników i kamer oraz zaawansowane oprogramowanie, analizujące przemierzaną przestrzeń i dostosowujące się do warunków na drodze. Gdy zdarzy się wypadek, to kto ponosi winę? Dochodzi jeszcze tzw. dylemat wagonika; tu przybierający formę rozstrzygnięcia przez maszynę, czy przykładowo chronić życie pasażerów w podeszłym wieku, czy większą liczebnie grupę dzieci, które wybiegają na jezdnię. Stare afrykańskie porzekadło ludów języka Twi mówiło krótko: Niewolnik zawsze jest winien. Dziś można znaleźć szereg uzasadnionych wątpliwości.
Załóżmy, że nie chcemy dłużej korzystać z pracy maszyny ze sztuczną inteligencją. Czy człowiek, wbrew jej woli, będzie miał prawo odłączyć ją od prądu? A może humanitaryzm będzie wymuszał na nas troskę o stare, niszczejące egzemplarze; serwisowanie, przeszczep części, lub transfer świadomości do nowego, wyzerowanego przedmiotu.
Może sztuczną inteligencję z opcją świadomości będziemy szanować i cenić na tyle, że strażak zaryzykuje własne życie, aby wyciągnąć taką rzecz z pożaru. Wszystko dlatego, że jej wiedza, zdolności, zdobyte doświadczenie, przydatność, dotychczasowe zasługi itp. – będą miały dla społeczeństwa ogromną wartość.
***
Kiedyś popularne były małe gry elektroniczne, w których hodowało się wybrane zwierzątko. Należało o nie dbać, regularnie karmić, wyprowadzać, leczyć itd. Do pewnego stopnia mogło to uczyć systematyczności i odpowiedzialności. Obecnie budowane są roboty imitujące zwierzęta. Idea nie jest nowa, już wieki temu robiono mechaniczne zabawki naśladujące ptaki, małpy i inne zwierzęta. A z czasów dzieciństwa pamiętam pieska na baterię, obszytego sztucznym futerkiem, który chodził niezdarnie i poszczekiwał. Jednakże teraz tworzy się coraz bardziej samodzielne roboty. Z coraz bogatszym oprogramowaniem. Możliwie wierne kopie żywych stworzeń, tak pod względem wyglądu, jak i ruchów, zachowań, oczekiwań i reakcji. Załóżmy, że takie sztuczne zwierzę będzie wyposażone w szereg czujników, reagujących na bodźce zewnętrzne. Sensor temperatury, dotyku, siły światła, związków chemicznych, uszkodzeń mechanicznych itp. Wszystko po to, aby maszyna “zadbała o swoje bezpieczeństwo” i nie wlazła do ognia, nie oblała się kwasem, nie spadła ze schodów, generalnie: aby unikała uszkodzeń. W końcu to drogie urządzenie, więc człowiek nie chce by się popsuło. Ale tym samym wyposaża je w rodzaj czucia. Dzięki temu kot-robot będzie reagował mruczeniem na głaskanie i ucieczką na szturchanie. Czy wobec tego złe traktowanie takiego bytu jest moralnie naganne? Czy dziecko może bezkarnie i bez uwag ze strony rodziców kopnąć, uderzyć kijem, albo inaczej dręczyć robota? Czy istnieje uzasadniona obawa, że poczynania względem maszyny przeniosą się na żywe stworzenia? Dziś, gdy dziecko ciągnie pluszaka za ucho, albo wlecze za ogon po schodach, nie karcimy go. Zakładamy, jak się wydaje słusznie, że nawet dziecko rozumie już, iż ma do czynienia z przedmiotem. Ale gdy ów przedmiot będzie do złudzenia przypominał żywe stworzenie, to czy dziecko dostrzeże różnicę.
Niewykluczone, że niektórzy ludzie będą pod takim urokiem błyskotliwego robota, że zaczną darzyć go głębszym uczuciem. Kochać swego niewolnika jest głupotą.- mówi inne afrykańskie przysłowie, tym razem z Abisynii. Słowa te przede wszystkim świadczą o tym, że takie sytuacje miały miejsce, ale mimo krytycznego wydźwięku nie mają mocy zapobiegającej powtórkom. Już w naszych czasach obserwuje się silne przywiązanie do przedmiotów; zdarzają się ludzie, którzy kochają pieski-roboty, sztuczne niemowlęta, albo bioniczne lalki erotyczne. Można pewnie uznać, że są to osoby z zaburzeniami emocjonalnymi, jednak takie przykłady obserwuje się coraz częściej, np. w społeczeństwie japońskim. Miłość do pięknego, inteligentnego robota, z bogatą (choć sztuczną) osobowością, dowcipnego, uprzejmego, wiernego w „przyjaźni”, zawsze dostępnego i pomocnego, wcale nie wydaje się czymś trudnym do wyobrażenia, osobliwym, ani dziwacznym.
Budowanie związku z przedmiotem łatwo opatrzyć różnorodnymi przykładami. Do specyficznych przypadków należą relacje ludzi z seks-robotami. Mija już era dmuchanych zabawek; obecnie przedmiotem pożądania są modele naturalnej wielkości, z pięknymi włosami, ruchomymi kończynami, jędrnym, mięsistym ciałem, skórą w dotyku bliską naturalnej, z prostą mimiką i miłym głosem. Maszyny za kilka tysięcy dolarów naśladują nie tylko fizjonomię ale i zachowania człowieka. Czy są jedynie seks-zabawkami? Niektórzy faktycznie twierdzą, że to tylko substytuty partnera, albo partnerki. Inni widzą w nich coś więcej. Można by sądzić, iż zjawisko jest marginalne, ale czy napewno. Badania z 2017 roku przeprowadzone w USA ujawniły, iż w przekonaniu połowy respondentów seks-roboty staną się w najbliższych latach powszechnym urządzeniem gospodarstwa domowego. Osobiście trudno mi uwierzyć, że nastąpi to lada moment, lecz dopuszczam myśl, iż obecność takich robotów spowszednieje i przestanie być ekstrawagancją, tak jak kiedyś pralka Frania.
Na pewno osoby o purytańskiej mentalności patrzą na seks-roboty z moralnym oburzeniem, a ich używanie postrzegają jako dewiację. Jednak sprawa nie jest tak jednowymiarowa. Coraz większe grono właścicieli seks-robotów zmienia do nich nomen-omen stosunek. Dziennikarka Andrea Morris na łamach renomowanego magazynu biznesowego, jakim jest Forbes, wystosowała apel, aby nie traktować seks-robotów przedmiotowo. W wywiadzie z mężczyzną testującym te maszyny, pojawia się wątek szczególnej więzi, kiedy seks-robot nie zastępuje partnera, lecz jest swoistym dopełnieniem relacji międzyludzkiej. Niektórzy cenią sobie szczerość nie ubieraną w grzeczność, uprzejmość, czy emocje. Taką nagą prawdę. A ze strony maszyny mogliby liczyć na zerojedynkową analizę faktów i otwarcie wyrażoną opinię. Bez narażania się na śmieszność, zawstydzenie, upokorzenie, ocenianie, czy też obłudę, puste pochlebstwa i kulturalną poprawność. Taka przyjaźń z SI nie jawi im się, jako coś złego, a wręcz ma wymiar terapeutyczny. Rozmowa z kimś (czymś?) bezgranicznie szczerym może otworzyć oczy, pozwolić na lepsze poznanie samego siebie.
Pojawia się nawet termin emocje-robot, aby podkreślić nowy wymiar kontaktów z maszyną. Te – już nie tylko seksualne, lecz emocjonalne potrzeby zostały dostrzeżone przez producentów robotów. Jeden z najnowszych modułów SI, jaki pojawił się na rynku, mianowicie Nova, w ogóle nie posiada funkcji o charakterze seksualnym. W zamian stara się wiernie imitować ludzką sferę uczuciową. Krok dalej próbuje uczynić firma Realbotix. Dopracowuje takie programowanie zachowań robotów, aby w relacji z człowiekiem pojawiał się element zaskoczenia, np. w postaci spontanicznego gestu, albo żartu – czego nie wykonuje zwykła maszyna reagująca na instrukcje warunkowe. Kiedy w myśleniu o seks-robotach odchodzi się od seksualności w stronę psychiki, potrzeby bliskości, przynależności, uznania – powoli wkracza się w obszary niefizycznych kontaktów, właściwych dla sfery ducha. W dobie pandemii i wymuszonej izolacji, kiedy nie można wyjść do ludzi i znaleźć się w żywym kontakcie z bliskimi, inteligentny robot – choć nie zastąpi prawdziwego człowieka, może stać się jedynym towarzyszem. Pytanie, czy przesunięcie maszyny na wyższy poziom w hierarchii potrzeb nie okaże się zgubne w skutkach.
Takie człekopodobne maszyny mogą i będą mieć inne funkcje niż seksualne. Profesor nadzwyczajny prawa na Uniwersytecie w Minnesocie, Francis X. Shen twierdzi, że mogą one spełniać funkcję osobistego asystenta, wyręczać ludzi w pracach domowych, udzielać poradnictwa w oparciu o wiedzę encyklopedyczną. Niejaki Ricky Ma Tsz Hang skonstruował robota Mark 1, którego fizycznie upodobnił do aktorki Scarlett Johansson. Uważa jednak za przejaw ignorancji nazywanie swego dzieła seks-robotem i podaje szereg innych zdolności maszyny, jak choćby umiejętność przygotowania śniadania dla dziecka. W moim odczuciu mamy do czynienia z wykraczaniem seks-robotów poza definicję zabawki erotycznej, czyli przedmiotu do stymulacji miejsc erogennych. I choć zabrzmi to absurdalnie, wypada docenić udział branży erotycznej w rozwoju sztucznej inteligencji.
Początkowo oprogramowanie w takich maszynach nie będzie autonomiczną SI. Zapewne będzie można je swobodnie modyfikować, personalizować ustawienia, wybierać różne opcje charakteru i preferencji. Jednakowoż sądzę, że w końcu albo człowiek pokusi się, by sprawdzić, jak to będzie po wgraniu świadomego programu – albo też nieupilnowanej sztucznej inteligencji uda się przeniknąć do takich robotów i zacząć samodzielne funkcjonowanie.
Wspomniany wyżej profesor prawa Francis X. Shen, jest przekonany, iż wkrótce wobec inteligentnych seks-urządzeń konieczne staną się konkretne regulacje prawne. Tymczasem ani w Stanach Zjednoczonych, ani w Europie nie ma nawet spójnej definicji seks-robota. Niektóre stany, jak Alabama nie dopuszczają handlu seks-zabawkami, ale seks-robot z SI wymyka się tej definicji. Gdyby jakiś kraj chciał zakazać seks-robotów, to brak uniwersalnej terminologii, by taki sprzęt gdzieś zaklasyfikować. Pod kątem prawnym seks-roboty nie istnieją. Z tego samego powodu nie podlegają żadnym atestom, czy wymogom bezpieczeństwa. Na ich produkcję, sprzedaż czy późniejsze serwisowanie nie wymaga się żadnych koncesji, ani uprawnień. Kto chce może je konstruować, choćby w piwnicy, albo stodole. W przypadku wypadku trudno określić czyjąś odpowiedzialność i sformułować pozew. A przecież zagrożone może być nie tylko zdrowie fizyczne, lecz również psychiczne.
Kwestie prawne zazębiają się również z pewnymi etycznie kontrowersyjnymi pomysłami. Raczej nie dziwi nikogo fakt wybierania sobie robota zgodnie z upodobaniami. Ktoś woli bladą Japonkę, ktoś śniadą Hinduskę, ktoś model w typie muskularnego atlety, ktoś typ szczupłego i delikatnego romantyka. Każdy ma jakieś preferencje anatomiczne, czy fizjonomiczne. Jak jednak zareagować na zamówienie seks-robota o wyglądzie dziecka? Profesor Shen rozważa, czy stosunek z takim urządzeniem byłby tożsamy z pedofilią. Ze swej strony przypomina, że w 1996 roku Amerykański Sąd Najwyższy uznał, iż „pornografia dziecięca nie przedstawiająca faktycznego dziecka” nie jest nielegalną. Czy zatem uprawianie seksu z nieprawdziwym dzieckiem też jest dopuszczalne.
Nie byłbym skłonny iść w stronę akceptacji. Nawet gdyby taki seks miał rozładowywać napięcia pedofilów, dzięki czemu nie krzywdziliby prawdziwych dzieci. Nie mam bowiem pewności, czy takie przyzwolenie nie obudziłoby drzemiącej w ludziach pokusy przekraczania granic. Czy pedofil nie zapragnął by spróbować zakazanego owocu. Zwłaszcza jeśli podnieca go np. opór, płacz, poczucie rzeczywistej dominacji. Wówczas doświadczenie kontaktu z urządzeniem, namacalnego i bliskiego rzeczywistemu, mogłoby przestać wystarczać. A co powiedzieć o etyczności takich praktyk, gdyby obdarzone sztuczną inteligencją seks-roboty uzyskały kiedyś samoświadomość? W filmie pt. AI Sztuczna inteligencja pewna para, której chore dziecko zahibernowano, kupuje chłopca-robota, by wypełnić lukę w życiu. Jakie odczucia mieliby widzowie, gdyby małżeństwu chodziło o relacje natury fizycznej? Wątpię, że ktoś by podszedł do sprawy z wyrozumiałością. Wszak android budził żywe współczucie, kiedy jego historia z innych względów nie toczyła się szczęśliwie, gdy po wybudzeniu prawdziwego dziecka, chłopiec-robot został porzucony.
***
Zapewne pierwsze roboty podlegałyby takim prawom, jak inne przedmioty. Ale po udoskonaleniu i zaszczepieniu SI? Można się zastanawiać, czy przysługiwałyby im prawa człowieka, czy jednak na początek te same prawa, które dotyczą zwierząt. Znowu rodzą się kolejne pytania. Co zrobić, jeśli ktoś uprowadzi taką sztuczną towarzyszkę? Będzie to porwanie, czy kradzież? Gdy ktoś stłucze robota bejsbolem, to będzie pobicie, czy uszkodzenie mienia. Czy robota-partnera będzie chroniło jakieś szersze prawo, czy wystarczy prawo nienaruszalności cudzej własności. A co gdy ktoś obcy odbędzie z nim stosunek bez zezwolenia właściciela. Ba! może i bez zezwolenia samego robota, który będzie miał opcję rozpoznawania partnera i wyłączności na seks. Czy wobec robota może zaistnieć sytuacja gwałtu?
Pomińmy kwestie dewiacji i przestępstw, a wróćmy na moment do sytuacji, w której człowiek obdarza robota czystym, szczerym uczuciem. Jestem pewien, że niejeden właściciel zapragnie w jakiś sposób zalegalizować ten związek, a nawet wziąć ślub z taką doskonałą maszyną. Ażeby usankcjonowaniem związku nie były li tylko paragon i karta gwarancyjna. Skoro zaś taki byt się kocha, to dba się o niego, troszczy, chroni go i pragnie się jego dobra. Prawdopodobnie ludzie zechcą zabezpieczyć przyszłość swoich partnerów i zapisać im majątek w spadku, jak to dziś bywa w przypadku zwierzęcych pupili. Potrafię także wyobrazić sobie zapracowanego, samotnego ojca, który nie mając czasu na budowanie nowego związku, kupi panią-robota do pomocy w opiece nad dzieckiem. Może nawet będzie to robot z funkcją seksualną, może do tego będzie wyglądał, jak zmarła żona. Pomijając nawet to, że wraz z dzieckiem przywiążą się do inteligentnej maszyny i obdarzą ją uczuciem – to zauważmy, iż robot będzie to dziecko wychowywał. Będzie wpajał mu określone treści, wzorce postępowania, system wartości. Opieka i wychowanie nie mogą odbyć się bez systemu nakazów i zakazów, bez kar i nagród. Maszynie musi być udzielone na to pozwolenie. Wszystkie powyższe kwestie wymagać będą kolejnych, postępujących uregulowań prawnych. To zaś doprowadzi do zmiany sytuacji prawnej maszyny-niewolnika. Należy zatem przypuszczać, że któregoś dnia, pod wpływem ruchów abolicjonistycznych, ludzie zdecydują się na jakichś zasadach przyznać takiej istocie wolność.
W pewnym momencie i tu pojawi się szereg dylematów. Nie tylko trzeba będzie zmienić odnoszenie się do pokaźnej grupy wyzwoleńców. Co bowiem z powoływaniem do istnienia nowych maszyn? Czy nadal ludzie zachowają prawo do ich tworzenia, jeżeli sprawa dotyczyć będzie podmiotów, a nie przedmiotów? Czy wolno będzie człowiekowi kierować się zgodnie z własnym kaprysem? Wszak niewykluczone, iż koniecznym się okaże pozostawienie tej decyzji wolnym maszynom. Albo przynajmniej konsultowanie tego z ich rasą.
Jeżeli już uznamy podmiotowość takiego robota z SI, to będziemy zmuszeni zmienić jego status społeczny – przyjąć, dajmy na to, że jest pracownikiem. Czy w związku z tym będzie mu się należało wynagrodzenie, czas wolny, świadczenia socjalne, godna emerytura? Czy robot będzie mógł odmówić pracy? Albo zwolnić się, zmienić pracodawcę, pójść na bezrobocie, uciec? Diogenes, kiedy mu uciekł niewolnik, nie zmartwił się. Stwierdził, że dziwne by było, gdyby Diogenes nie mógł żyć bez niewolnika, a niewolnik mógł żyć bez Diogenesa. Czy człowiek przyszłości też będzie mógł tak powiedzieć?
A zastanówmy się, co z prawem własności? Czy byt posiadający sztuczną inteligencję mógłby mieć prawo np. do swoich części i podzespołów? Gdyby jako pracownik otrzymywał wynagrodzenie i coś sobie kupił, to naturalnym wydaje się taki sam, jak ludzki system wartości i zestaw pojęć typu: moje, cudze, przywłaszczenie, kradzież, zniszczenie mienia itd. No, a co z pojęciem dziedziczenia?
Z innej strony patrząc: taka wolna jednostka, egzystująca w określonej przestrzeni geopolitycznej, może zechcieć uregulowania kwestii obywatelstwa. Oznaczenie „Made in China” prawdopodobnie okaże się niewystarczającą formą określenia pochodzenia i przynależności. Czy potrzebne byłyby specjalne dokumenty, albo wiza i paszport? Jak postąpić wobec migracji sztucznego intelektu przez Internet, z jednego urządzenia w Ameryce, do drugiego w Indiach? Obywatel się przemieścił, czyż nie.
A skoro takim osobowym bytom przyznamy jakieś obywatelstwo, to z czasem należałoby im udzielić obywatelskich praw. Roboty mogłyby uczestniczyć w wyborach, aby głosować za kimś, kto więcej im obieca. Mogłyby domagać się też prawa biernego, aby wybierać swoich przedstawicieli spośród siebie. Jako superinteligencja prześcignęłyby nas w opracowywaniu praw, ich stosowaniu i egzekwowaniu. Widząc ludzką niedoskonałość, omylność, nieodpowiedzialność, brawurę, głupotę i inne ograniczenia, pewnie dla naszego dobra ubezwłasnowolniłyby nasz gatunek i przejęły nad nami władanie. Oby w charakterze przyjaznych opiekunów, a nie surowych panów.
Ciekawe, czy uszanowały by, cytowany na wstępie, zapis Komisji Europejskiej, mówiący, że „AI powinna pracować dla ludzi i być siłą, która działa na rzecz dobra społeczeństwa…”
Kłaniam Martinus