Kto będzie odpowiedzialny za pewne negatywne konsekwencje działania sztucznej inteligencji i robotów? Czy można ukarać robota? Jakie zachowania wobec robotów można uznać za nieetyczne? Jak zadbać o prawa ludzi, którzy utrzymują, że są w uczuciowym związku z awatarem AI? Na te i inne pytania próbuje odpowiedzieć dr hab. Kamil Mamak, prof. UJ - laureat prestiżowego europejskiego grantu ERC. W rozmowie z RMF FM, autor książki „Ethics in Human-like Robots”, który specjalizuje się w filozofii prawa i etyce technologii tłumaczy, dlaczego popularne prawa robotyki Asimova nie mają dla niego znaczenia. Przekonuje też, że prawo powinno zakazywać kopania psa-robota. Ale tylko publicznie.

REKLAMA

Panie profesorze, otrzymał pan ważny prestiżowy grant europejski i w ramach tego grantu będzie się Pan zajmował, jak rozumiem, tworzeniem prawa, które będzie dotyczyło relacji ludzi i robotów. Dobrze rozumiem?

Filozoficznych podstaw prawa. Tak, rzeczywiście, koniec końców z tego ma powstać jakieś prawo. Problemem, który rozpala bardzo wiele osób, jest to, kto będzie odpowiedzialny za pewne negatywne konsekwencje działania sztucznej inteligencji i robotów. Mówi się o tym, że jest coś takiego jak luka w odpowiedzialności, to znaczy stanie się coś złego i nikt za to nie odpowie. I na gruncie różnych dziedzin to może być problem, albo może nie być problem. W przypadku prawa karnego, czym ja się zajmuję, jest to problem taki, że to może prowadzić do negatywnych konsekwencji. Na przykład ludzie nie zaakceptują tego, że za coś, co wygląda jak przestępstwo, nikt nie odpowie. I są obawy, że na przykład będzie szukanie kozła ofiarnego, to znaczy ktoś będzie ukarany przez ludzi, mimo że nie odpowiada za dane zdarzenie. Ja próbuję to jakoś ucywilizować, w takim sensie, że stworzyć nowe podstawy do tego, jak rozwiązać ten społeczny problem. Przeważnie do tej pory, jak dyskutowano o tym to próbowano jakoś wprowadzić to prawo karne, naciągnąć do nowych problemów. A ja zadaję pytanie inaczej. Nie, jak dostosować prawo karne do robotów, tylko jak zmienić w ogóle jego filozoficzne podstawy, żeby też jakoś tam objęło roboty. Więc tym się w największym skrócie zajmuję.

Twoja przeglądarka nie obsługuje standardu HTML5 dla audio

"Prawa robotyki Asimova mnie nie obchodzą"

Jeśli mówimy o relacjach lub kontrowersjach w relacjach między człowiekiem a robotem na najrozmaitszych płaszczyznach, no to ktoś może tak prosto rozumować, że robot zawsze jest czyjąś własnością. Więc, czy nie można tego wszystkiego sprowadzić właśnie do relacji człowieka z czyjąś własnością? I tutaj taki przykład, który przychodzi mi do głowy, choć o własności oczywiście nie wolno nam tutaj mówić. To są na przykład zwierzęta domowe. Opiekun zwierzęcia domowego odpowiada za to, co ewentualnie to zwierzę może złego zrobić innemu człowiekowi. No i ten inny człowiek w stosunku do tego zwierzęcia odpowiada też nie tylko wobec samego zwierzęcia, ale też wobec jego opiekuna. Czym to będzie się różnić od takiego najprostszego przypadku?

Tak, częściowo w ten sposób można na ten temat myśleć. Tylko właśnie jest problem w kontekście na przykład dzikich zwierząt. Jeżeli jakieś zwierzę, czy jakiś ptak nas zaatakuje, czy pójdziemy do jakiegoś lasu i zostaniemy zaatakowani przez jakiegoś niedźwiedzia, czy dzika, no to tam o tym stosunku własności i szukaniu kogoś odpowiedzialnego niekoniecznie musi być mowa. Rzeczywiście, jeżeli ktoś na przykład trzyma sobie robota i nie zabezpiecza go i coś się takiego stanie, a był zobowiązany do tego, żeby tego robota jakoś kontrolować, to wtedy można próbować przypisać odpowiedzialność temu człowiekowi za stworzenie takiej sytuacji. Problemem jest jednak to, że jest pewna nieprzewidywalność, że zwierzęta wiemy, w jaki sposób są nieprzewidywalne, a w przypadku sztucznej inteligencji te sposoby działania mogą być zupełnie kuriozalne. Więc może być tak, że nawet jeżeli ktoś jest zobowiązany do tego, żeby zabezpieczać takiego robota albo wykorzystywać tę sztuczną inteligencję do określonych celów, to ona może się zachować w taki sposób, o którym byśmy nie pomyśleli. Jeden z warunków odpowiedzialności, już od Arystotelesa, jest możliwość przewidzenia konsekwencji. Nie możemy być odpowiedzialni za coś, czego nie mogliśmy przewidzieć. Więc jeżeli ta technologia ciągle się zmienia, dostosowuje się, zachowuje się w sposób inny, niż moglibyśmy się spodziewać, to wtedy odpowiadać nie będziemy. To znaczy, na przykład, jeżeli nas tygrys zaatakuje, no to jakby wiemy, że w ten sposób może nas zaatakować. Ale na przykład, jeżeli zacznie nas obrażać, no to wtedy już właściciel albo ta osoba, która się nim zajmuje, odpowiadać nie będzie. No bo do tej pory tygrysy nas nie obrażały. Więc tu też jest problem z tym, że to są takie nowe przypadki, które nagle się mogą zdarzyć, co do których nie będziemy wiedzieli, jak się zachować.

Wspomniał pan o dzikich zwierzętach, co mnie trochę zaniepokoiło, bo taką analogią do dzikich zwierząt w świecie robotów byłyby takie roboty chodzące samopas, które po prostu do nikogo nie są przypisane. Czy to ewentualnie jest też coś, czym pan się będzie zajmował?

Tak, szczególnie, że podstawą filozoficzną, takiego mojego podejścia jest to, że generalnie próbuje się przyznać odpowiedzialność jakiemuś podmiotowi. Ja tutaj próbuję powiedzieć, że to czym jest podmiot, któremu przypisujemy odpowiedzialność, nie ma takiego znaczenia, że bardziej liczy się to, czy ludzie są zadowoleni z efektu naszego karania. To znaczy, jeżeli stworzymy jakieś prawo, wdrożymy roboty, zastosujemy mechanizmy prawne i doprowadzimy do tego, że ta sprawa zostanie zakończona z jakąś, można powiedzieć, umowną karą. Czy ludzie są usatysfakcjonowani z tego, co się stało? Niekoniecznie mnie wtedy by interesowało to, czym są te podmioty i czy cokolwiek czują. Przy prawie karnym na przykład jest wielki problem możliwości odczuwania cierpienia. W tradycyjnym rozumieniu kary, jednym z elementów jest to, że ona po prostu powinna być nieprzyjemna, powinna sprawiać w jakimś zakresie ból. Jeżeli mamy podmioty, które tego bólu nie odczuwają, to te tradycyjne kategorie prawne, filozoficzne, dotyczące kary, zastosowane być nie mogą. A do tej pory nie wiemy, czy teraz, czy kiedykolwiek będą możliwe jakiekolwiek byty sztuczne, zdolne do tego, żeby odczuwać cierpienie. To też jest jedna z zagadek. Więc moje rozważania trochę są warunkowe. To znaczy przygotowuję coś na roboty, które są prawdopodobne tu i teraz, ale zastanawiam się też nad takimi bardziej futurystycznymi rzeczami.

Czy w związku z tym bierze pan pod uwagę też możliwość karania robotów?

Bardzo mnie to interesuje, bardzo ciekawie się o tym mówi, ale z punktu widzenia praktycznego, to przynajmniej na stan obecnej wiedzy wydaje się bardzo mało prawdopodobne. Są konferencje na ten temat, na przykład ostatnio pisałem tekst o super inteligentnych robotach, gdzie założeniem jest, że super inteligentne roboty są i co powinniśmy z nimi zrobić. Ale jakbyśmy zapytali ekspertów, czy takie roboty powstaną, to też będzie duża część, która powie, że takich robotów, o których właśnie pisałem, nigdy nie będzie. Więc to jest trochę taka wolność tego, czym się zajmuję, że rozważam bardzo różne scenariusze.

Proszę mi powiedzieć w takim razie, z punktu widzenia pana pracy i podejścia prawnego i filozoficznego, bo jak rozumiem, te dwa są tu równoległe, to te mniej więcej znane nam od dawna prawa robotyki Asimova, one dalej obowiązują czy nie obowiązują? Czy trzeba je znowelizować, wyrzucić do śmieci? A może właśnie oprzeć się na nich mocniej?

No właśnie mam taki problem, jak dużo recenzuję tekstów, które dostaję i przez to, że właśnie piszę o prawie karnym i o robotach, to jeżeli widzę, że ktoś się powołuje na prawa robotów Asimowa, to najprawdopodobniej ten tekst będzie do odrzucenia. To znaczy, że ktoś nie odrobił podstawowych lekcji i znaczy, że nie wie, o czym mówi, zupełnie. To jest ciekawe, ale według mnie prowadzi dyskusję na zupełnie niewłaściwe tory. Można powiedzieć tak: osoby, które zajmują się filozofią technologii AI, dzielą się na dwie grupy. Takie, które są zajawione science fiction i to była główna motywacja do tego, żeby się zająć tym tematem. I są takie, których zupełnie to nie obchodzi. Ja należę do tej drugiej grupy, więc jeżeli ktoś mówi: tak pisał Lem, tak pisał Asimow, to było w takim filmie, w takiej książce, no to mnie to nie obchodzi. Nie chcę na ten temat nawet rozmawiać z tego względu, że więcej jest później odkręcania tych rzeczy, niż wartościowego wkładu w tę dyskusję. Fajnie od tego zacząć, bo część osób jest zainteresowana dzięki temu właśnie, ale jako taka poważna podstawa pod pracę naukową, to ja osobiście tego nie lubię. Ale to są dwie grupy, więc nawet wśród naukowców są osoby, które bardzo poważnie się na ten temat zastanawiają. Ale podstawowy problem polega tu na tym, że to zakłada trochę analogię do historii z nożem, że można powiedzieć, że są takie narzędzia, którymi możemy komuś zrobić krzywdę, że te same kategorie możemy do tego zastosować. Ale tu problem jest taki, że w większości tych sytuacji to po prostu ludzie próbują te narzędzia wykorzystać w sposób zły. No i też zakłada to, że będziemy w stanie przewidzieć sytuację. A całe założenie tych moich badań polega na tym, że to są pewne niespodziewane konsekwencje działania tych robotów i też moje założenie jest takie, że one nie są świadome, więc tam nie ma czegoś takiego, że one by na przykład sobie jakoś analizowały, co jest dobre dla ludzkości, a co nie jest dobre dla ludzkości, co jest krzywdzeniem, co nie jest krzywdzeniem, bo obiektywnie ciężko o tym powiedzieć. Na przykład, jeżeli byśmy zobaczyli, że ktoś kroi czyjś brzuch, no to możemy powiedzieć, że to jest obiektywnie złe, ale jeżeli się dowiemy, że to jest lekarz i to jest operacja, no to OK, to on ratuje życie. Ale jeżeli ktoś to robi na ulicy, to prawdopodobnie robi komuś krzywdę. Więc tutaj ocena tego, czy coś jest dobre czy złe, zależy od kontekstu, w jakim to się dzieje.

Te prawa Asimowa są popularne zwłaszcza w kulturze masowej. I w związku z tym, nawiązując do tego, o czym pan powiedział, czyli o prawie, które równocześnie zaspokaja poczucie obywateli, że jest sprawiedliwe i że dobrze działa, można powiedzieć, że w tym sensie akurat te prawa Asimowa są po pierwsze proste, po drugie one intuicyjnie są dla nas ludzi korzystne. Robot nie może nam zrobić krzywdy, a jeżeli się nawet będzie bronił, to i tak nie może tego zrobić w taki sposób, żeby nam zrobić krzywdę i tak dalej, i tak dalej, i tak dalej. Ale jak rozumiem, można wyjść z innych przesłanek tworząc to prawo?

Tak. Problem jest taki, że to intuicyjne podejście Asimowa i proste rozwiązania są bardzo popularne wśród osób technicznych, które zajmują się tymi rzeczami. Na przykład często jest tak, że te osoby zwracają się do filozofów mówiąc: proszę mi powiedzieć, w jaki sposób powinniśmy sformułować te zasady etyczne, w jaki sposób etycznie jakiś robot powinien się zachować. No i trzeba to opisać. A tu przyjdzie etyk czy filozof i powie, że to jest bardziej skomplikowane. No i początkowo próbowano stosować takie dwie najważniejsze etyki normatywne, czyli na przykład deontologia Kanta, albo jakiś utylitaryzm związany na przykład z Benthamem. Na przykład w deontologii to jest na przykład zestaw reguł, które należy przestrzegać. Dla osób, które zajmują się technicznymi rzeczami, to się wydaje bardzo intuicyjne. No może rzeczywiście wypiszemy sobie zestaw reguł, to implementujemy do technologii i te technologie będą się zachowywały właśnie w ten określony sposób. Można powiedzieć, że z punktu widzenia tych etycznych koncepcji te prawa Asimowa to by były takie właśnie normy, które moglibyśmy wgrać do tych robotów. Tylko tutaj ten kontekst zupełnie jest pominięty. Druga taka teoria, którą brano pod uwagę i dalej wierzy się, że da się ją zastosować, to jest patrzenie na konsekwencje. To znaczy na przykład, że roboty powinny próbować badać, które zachowanie jest bardziej korzystne dla ludzi. Taki najbardziej chyba prosty przypadek to jest taki, że na przykład, jeżeli samochód powinien kogoś uderzyć i jest taka sytuacja na drodze, no to na przykład, jeżeli mamy uderzyć w jedną osobę albo dwie osoby, no to powinniśmy z punktu widzenia utylitarystycznego uderzyć w jedną osobę, nie dwie osoby, bo tutaj dwie osoby zostaną skrzywdzone, a tam tylko jedna osoba zostanie skrzywdzona. No tylko znowu ta etyka wydaje się prosta, intuicyjna i ludzie by chcieli, żeby coś takiego zostało zastosowane. Ale życie etyczne jest dużo bardziej skomplikowane. Tutaj coraz większe znaczenie w tych dyskusjach ma etyka cnót Arystotelesa, która nie skupia się na etycznej ocenie samego zachowania, tylko na ocenie charakteru osoby, która wykonuje jakieś zachowanie. Czyli bardziej się skupiamy na tym, czy na przykład coś jest dobre dlatego, że buduje czyjś charakter. No i od razu, jak wchodzimy na grunt etyki Arystotelesa, to się wydaje nieintuicyjne. Jak na przykład się gada z osobami z technicznym wykształceniem. Jest taka jakaś od razu niechęć do tego. No ale jeżeli właśnie byśmy się zastanawiali, która etyka w większym stopniu odpowiada temu, jak my się zachowujemy, no to wydaje się, że bliżej nam chyba do miksu tych wszystkich etyk. Z jednej strony mamy jakieś zasady, które powinniśmy przestrzegać, a z drugiej strony powinniśmy brać pod uwagę jakieś konsekwencje, które są z tym związane, ale też istotne są te kwestie budowania charakteru. No i o ile łatwo sobie wyobrazić, że do robota wgramy system norm albo będzie ważył, co jest dobre, a co jest złe, to ciężko sobie już wyobrazić, że na przykład musimy budując robota, który zachowuje się etycznie, martwić się o jego charakter, żeby budował charakter poprzez swoje interakcje z ludźmi, które mają etyczne jakieś konsekwencje. Więc tutaj, bardzo skomplikowana jest ta sytuacja.

Pan wspomniał o tym dylemacie, w którą stronę auto, które się porusza robotycznie miałoby skręcić. No więc pójdźmy tym torem. To oznaczałoby, że samochód w oparciu o wcześniejsze doświadczenia buduje swój charakter, staje się coraz lepszym kierowcą i coraz bardziej etycznym robotem. Jak schodzi z linii produkcyjnej, to jest takim świeżym kierowcą, a potem zmienia się w miarę doświadczeń i tego, co obserwuje. Czy z punktu widzenia pana pracy interesuje pana w ogóle, co ludzie, którzy projektują, programują te roboty będą tam tak naprawdę wkładać do głowy? Czy właśnie pana interesuje tylko ten efekt finalny, to znaczy to, co ostatecznie w tej interakcji człowieka z robotem się wydarzy? Mówiąc inaczej, czy pana praca zmierza do tego, żeby jednak zasugerować producentom: słuchajcie, powinniście działać w taki lub taki sposób, czy raczej właśnie pan to kompletnie zostawia producentom, a sam tylko patrzy z punktu widzenia konsekwencji.

Interesują mnie różne etapy. Ten pierwszy też jest bardzo interesujący. Wydaje mi się, że większość osób, które zajmują się prawem karnym, uważa, że to jest coś złego i najlepiej, żeby tego prawa karnego było jak najmniej. To znaczy, na przykład nam chodzi o to, żeby więzień było jak najmniej, żeby jak najmniej było przestępstw. Więc to nie jest tak, że chce się, żeby tego było jak najwięcej. By to zrobić, to też musi się dziać coś - w przypadku ludzi - na przykład na etapie wychowania. Chodzi o nierówności. Bardzo duży wpływ na to, czy ktoś popełni przestępstwo, czy nie, zależy od tego, w jakiej rodzinie się urodzi, w jakim środowisku się wychowuje, jaki ma start, czy ma wystarczające środki na podjęcie edukacji. No i tutaj jest dużo różnych innych takich rzeczy. Więc można walczyć z przestępczością, tak jak politycy lubią dopiero wtedy, jak się coś się stanie. Ale najlepiej próbować z punktu widzenia takiego społecznego próbować likwidować te powody, że ktoś zachowuje się w sposób nieetyczny. Więc - odpowiadając na pana pytanie - interesuje mnie to, co się dzieje na tym pierwszym etapie. Też bardzo lubię jeździć na takie konferencje techniczne, gdzie konfrontuję się właśnie z osobami, które na przykład projektują roboty. Z tego względu, że to są bardzo ciekawe dyskusje, bo na tym etapie też te etyczne przed-założenia są już wdrażane. Nawet jeżeli osoby, które pracują nad tym, nie zdają sobie sprawy, że podejmują jakieś decyzje, które mają znaczenie czy etyczne, czy polityczne, no to jednak tak jest. Tutaj był taki bardzo znany przypadek z filozofii technologii o tym, że na przykład pewien pan z okolicy Nowego Jorku chciał ograniczyć ruch osób, które są nie-białe na jakichś plażach i jak budował most, to zbudował ten most w takiej wysokości, że przez niego nie mógł przejechać autobus komunikacji miejskiej czy w ogóle publiczny transport, tylko samochody indywidualne. I tu pokazuje się, że za pomocą designu można wpłynąć na sferę polityczną. No bo jeżeli nie będą mogły przejechać autobusy, a przeważnie te osoby, które on nie chciał, żeby się na tej plaży znajdowały, nie mają własnego samochodu, tylko podróżują komunikacją zbiorową, no to w ten sposób można wpływać na rzeczywistość. Tutaj rośnie ta świadomość osób technicznych, że od nich zależy, w jaki sposób ta etyka będzie wdrażana w rzeczywistości, w świecie tych robotów i AI. Nad tym ciągle trzeba pracować.

Od tych czasów Asimova, Lema minęło już wiele, wiele lat i myślę, że minęło też wiele lat, podczas których my z robotami zaczęliśmy żyć. Roboty na liniach produkcyjnych to jest codzienność, nie stykamy się z nimi bezpośrednio, ale wiemy o nich i doskonale zdajemy sobie sprawę, jak działają i robią to dobrze. Są roboty chirurgiczne, które mają fantastyczne właściwości, więc jesteśmy stosunkowo dobrze oswojeni z tymi robotami, które bezpośrednio wykonują polecenia kogoś mądrego, kto zleca im coś dobrego. Natomiast tym, co dla popularnej opinii publicznej i dziennikarzy chociażby jest interesujące, to co się stanie w momencie, kiedy te roboty będą miały już pewną autonomię. Jeśli ich producenci dadzą im tę autonomię, to jest jedna sprawa. Druga to to, że obawiamy się trochę, że w pewnym momencie mogą dojść do sytuacji, w której same te roboty sobie tę autonomię zdobędą, żeby nie powiedzieć wywalczą. I tu jest ten moment, w którym się zastanawiamy, co prawo na to. Czy w takim razie za szkody spowodowane przez takiego robota, który już przeszedł troszeczkę dalej w swoim rozwoju, odpowiada jego aktualny właściciel, ktoś kto go kupił i umieścił w danym miejscu i coś mu ogólnie zlecił, czy producent, który go kiedyś wyprodukował, jakoś zaprogramował? Czy jeden i drugi? A może państwo, które pozwoliło na to, żeby takie roboty np. w przestrzeni publicznej zaczęły się poruszać? Jakie jest pana stanowisko w tej sprawie?

To też odpowiedź zależy od tego, na jakim gruncie, jakiego prawa to dotyczy. Reżim prawa cywilnego, gdzie chodzi bardziej o kompensację finansową, to jest co innego. Większy problem jest właśnie z tym, czym ja się zajmuję, prawem karnym z tego względu, że prawo karne od tysięcy lat oparte jest na indywidualnej winie indywidualnej osoby. No i tu te ramy prawa karnego nas ograniczają z tego względu, że odpowiadać może tylko ktoś, kto spełnia pewne kryteria. Z tego punktu widzenia, nawet jeżeli roboty będą w jakiś sposób autonomiczne, to właśnie będziemy w jakiejś takiej szarej strefie, w której nikt nie będzie odpowiadał z punktu widzenia karnego. Można, nie wiem, pozwać państwo, ale to tylko jest odpowiedzialność cywilna, finansowa. Ale jeżeli na przykład zastanawiamy się nad tym, kto będzie odpowiadał za takie zdarzenia, które wyglądają jak przestępstwa, to znaczy, nie wiem, ktoś złamie nogę albo ktoś umrze, albo ktoś dostanie jakiegoś poważniejszego urazu, to te rzeczy są właśnie problematyczne, bo tutaj, żeby kogoś uczynić odpowiedzialnym, są bardzo ostre kryteria. No i roboty, nawet jeżeli będą autonomiczne częściowo, niekoniecznie będą spełniały te kryteria.

Roboty raczej nie będą mogły usłyszeć zarzutów, jak rozumiem.

Jeżeli zastanowimy się nad tym z tej perspektywy, w której ja teraz pracuję, że próbuję oderwać tę indywidualną odpowiedzialność, to możemy sobie stworzyć taki system, w którym jeśli jest popełnione przestępstwo przez robota, coś, co wygląda jak przestępstwo, prowadzimy postępowanie, dajemy ofiarom możliwość wypowiedzenia się w tej kwestii. Wydajemy jakiś symboliczny wyrok i jakoś symbolicznie nazywamy zło złem. No to mogą usłyszeć, ale mogą tego w ogóle nie zrozumieć. W moim rozumieniu mogą usłyszeć, ale niekoniecznie muszą zrozumieć.

Zawsze mogą zostać wyłączone, nie mówiąc o tym, że zniszczone, ale też trudno powiedzieć, czy dla takiego robota to jest kara. No bo jak pan wspomniał, ta kara musi być odczuwana jako pewnego rodzaju niedogodność, nieprzyjemność. Dla świadomego robota może świadomość, że zostanie wyłączony i wyrzucony na śmieci, to będzie nieprzyjemność.

Tak, mam tutaj taki problem właśnie antropomorfizacji. Jesteśmy ludźmi, więc na wszystko patrzymy z perspektywy ludzkiej. No ale mamy na przykład problem ze zwierzętami, że na przykład nie wiemy, co one czują. Przy niektórych zwierzętach, które mają możliwość ekspresji podobnej do ludzkiej, jesteśmy w stanie się wczuć w ich sytuację. Na przykład pies, który jest bity, wydaje takie dźwięki i tak się zachowuje, że przeczuwamy, że on też odczuwa w podobny sposób do nas. A są zwierzęta, które nie mają takiego aparatu, na przykład, nie wiem, ryby albo jakieś innego rodzaju mniejsze zwierzęta albo zupełnie możemy nie wiedzieć, jakie jest ich życie wewnętrzne. Był taki przypadek chyba z lat osiemdziesiątych, gdzie trochę przypadkowo nagrano coś, co później nazwano pieśnią wielorybów. Nagrano, w jaki sposób one się komunikują między sobą i to z punktu widzenia ludzkiego brzmiało jak śpiew. Chyba zrobiono nawet z tego jakąś płytę. Sprzedano w wielu egzemplarzach i wskazuje się, że z punktu widzenia takiej polityki to doprowadziło do tego, że zmieniono na przykład zasady polowania na wieloryby. W wielu miejscach zrezygnowano z tych połowów właśnie z tego względu, że uznano, że one są trochę ludzkie. To było zupełnie przez przypadek. W przypadku robotów, nawet jeżeli tam się jakaś świadomość wytworzy, to też nie będziemy wiedzieli do końca, jak do tego dotrzeć, skąd będziemy wiedzieli, że coś tam jest. Jeszcze przed erą Czata GPT Google pracowało nad swoim dużym modelem językowym Lambda i tam jeden z pracowników, który się tym zajmował, miał za zadanie testowanie tego systemu i stwierdził w pewnym momencie, że ten system jest świadomy. Skąd to wiedział? Bo mu rzekomo ten system powiedział, że jest świadomy. No i on rozpoczął jakąś krucjatę, można powiedzieć taką, żeby uratować ten system. Zaczął szukać na własną rękę jakichś prawników, którzy mogliby reprezentować ten chat. No i to się stało ogólnoświatowym newsem. Tak było w 2022 roku. I on został zwolniony z Google'a za te swoje akcje związane z tym. Więc trochę przy tej sztucznej inteligencji problem polega na tym, że będzie potrafiła się komunikować, już się potrafi komunikować, jak człowiek. Kiedyś mówiono, że takim testem jest test Turinga. Nagle jak okazało się, że roboty komunikują się i czaty komunikują się jak człowiek, no to nikt już nie uważa, że to jest kryterium, które w jakikolwiek sposób decyduje o tym, czy mamy do czynienia z inteligentnym, czy nieinteligentnym bytem. Więc tutaj możemy mieć problem taki, że odwrotnie jak w przypadku zwierząt, te roboty mogą w sposób bardzo perswazyjny mówić, że mają jakieś tam stany, ale my nie będziemy mieć pewności, czy tak w rzeczywistości jest.

A może moje pytania idą w ogóle nie w tę stronę, w którą pan zamierza prowadzić swoją pracę? To znaczy być może to jest praca określająca prawa, obowiązki dla ludzi wobec robotów. Może to jest tak, że prawo będzie bronić prawa własności tych, którzy mają, kupili te roboty i określać, jakie działania ze strony tych innych ludzi będą niezgodne z prawem?

Tak, w tym grancie akurat skupiam się na kwestii odpowiedzialności, ale we wcześniejszych swoich pracach, też w książce, którą wydałem, skupiałem się na zachowaniach ludzi w stosunku do robotów. I to nazywam jako przestępstwa na robotach. Wskazuję, jakie zachowania powinny być ograniczone w stosunku do robotów. Jak ktoś pierwszy raz o tym słyszy, to często jest taka reakcja, że nie, dlaczego, przecież to jest zwykły kawałek sprzętu. Tutaj siedzimy w studio, jest wiele komputerów, które są skomplikowane. Dlaczego to traktować zupełnie inaczej? Ja tutaj próbuję pokazać, że atakując roboty możemy atakować wartości ludzkie. Więc zgodnie z tym, co właśnie pan powiedział, że te moje propozycje praw, które mogą być postrzegane jako prawa robotów, tak naprawdę są to prawa ludzi po to, żeby zabezpieczyć społeczeństwo przed pewnymi negatywnymi konsekwencjami. Tutaj podam od razu przykład, żeby to nie było tak bardzo abstrakcyjne. Na przykład w jednym ze swoich tekstów proponuję wprowadzenie zakazu publicznego kopania robotów. Publicznego, podkreślam. To zachowanie byłoby zupełnie akceptowalne z tej perspektywy w domu, ale publicznie byłoby nieakceptowalne. I tutaj powołuję się na to, że mamy takie przepisy, które chronią nam przestrzeń publiczną przed takimi aspołecznymi zachowaniami. Na przykład spożywanie alkoholu w miejscach publicznych jest zakazane. Bycie nago w miejscach publicznych jest zakazane. Śmiecenie w miejscach publicznych jest zakazane. Robienie tego samego w domu jest OK. Musimy się jakoś umyć. Możemy być nago. Tutaj ten kontekst zmienia zupełnie znaczenie. Ja tutaj uważam, że ludzie bardzo reagują negatywnie na to, jak się atakuje roboty z tego względu, że np. one nie są traktowane jako sprzęt, tylko bardziej to się traktuje jako atak na jakąś osobę czy na jakieś zwierzęta. Więc uważam, że takie zachowania powinny być ograniczone. Innym przykładem jest miłość między ludźmi a robotami. Znowu nie jestem naiwny, że myślę, że na przykład robot może mieć uczucia, ale są ludzie, którzy myślą, że w takiego typu związkach są. Ludzie twierdzą, że na przykład są w związkach z jakimiś awatarami, z agentami AI. W przypadku humanoidalnych robotów wydaje się, że ta liczba osób, która będzie twierdziła, że jest w takiej relacji, będzie dużo większa. No i ja wskazuję tutaj, że powinniśmy wprowadzić jakąś taką ochronę robotów, o których ktoś twierdzi, że jest w nich zakochany. Nie twierdzę, że miłość między robotem a człowiekiem jest, ale dla osoby, która jest w takim związku, wydaje mi się, że to jest coś istotnego. I uważam, że nie powinniśmy tego traktować jako zwykłą własność, tylko jak coś innego. Bo w prawie mamy coś takiego, że różne wartości chronimy. Jedna rzecz to jest ochrona wartości, a inna rzecz to jest na przykład ochrona miłości. Może wprost nie mamy prawa o miłości, ale mamy takie różne instytucje, które tę miłość chronią, na przykład małżeństwo, czy rodzina. Pod tym też się kryje miłość. Więc jak są dwie osoby, no to tutaj ta miłość w jakiś sposób jest chroniona i uważam, że takie prawa powinny być wprowadzone.

Ja wejdę tylko w słowo. Czyli jest to jakby ochrona tego robotycznego - w cudzysłowie - partnera ze względu na osobę, która uważa, tak czuje, że jest z tym robotem w takim czy innym związku. A więc nie jest to ochrona sprzętu takiego, jak pralka czy lodówka, którego ktoś jest posiadaczem, ale ta ochrona związana też z możliwymi emocjami.

Tak. W prawie emocje, miłość jest dosyć mocno chroniona. To jest wartość rozpoznawalna jako wartość sama w sobie. Jeżeli coś takiego się wytworzy pomiędzy człowiekiem a robotem, nawet jeżeli robot nie może być aktywnym uczestnikiem tej relacji, no to ja uważam, że tutaj jakaś reakcja państwa, ochrona tej relacji, powinna mieć miejsce. I tutaj też czasami mówię o takim przykładzie, że generalnie sprzęt z czasem tanieje, to znaczy na przykład ochrona mienia maleje z czasem. Jak kupimy sobie komputer nowy, no to on jest wtedy najbardziej chroniony, bo na przykład ta wartość jest największa, a potem po dziesięciu latach on może być nic nie warty. Więc na przykład, jeżeli ktoś nam ukradnie komputer, który wart jest na rynku sto złotych, no to nawet nie możemy powiedzieć, że to jest przestępstwo z tego względu, że ta wartość już w zasadzie jest z punktu widzenia prawa karnego żadna. Z kolei w relacjach jest odwrotnie. Im dłuższa jest relacja, tym uważa się, że jest bardziej wartościowa. Więc na przykład ktoś jak będzie w związku z czterdziestoletnim z robotem, to dla tej osoby to będzie pół życia albo całe życie dorosłe. A z kolei z punktu widzenia materialnego to będzie sprzęt, którym nikt może nawet nie chciałby się zająć, może tylko oddać na szrot i jakoś utylizować. Więc z tego punktu widzenia obawiałem się, że część osób właśnie będzie miała problem, że zostanie zupełnie poza ochroną to, co jest dla nich bardzo istotne.

A czy ja dobrze rozumiem, że na przykład w tym samym duchu, choć na temat nieco innych emocji, można by na przykład rozumieć, bo ja wiem, smartfona, który po pięciu latach użytkowania - załóżmy, że nie ma chmury, Google'a itd., itd. - ale po prostu są zdjęcia w tym smartfonie. Po pięciu latach, jego wartość materialna jest niemal żadna, ale wartość zapisanych tam zdjęć jest bezcenna dla osoby, która przez pięć lat robiła te zdjęcia. Czy w związku z tym w tej chwili jest taka ochrona prawna, jeśli ktoś ukradnie taki bezwartościowy sprzęt, ale mający w sobie taki element sentymentalny? Czy ta ochrona już jest?

W bardzo ograniczonym zakresie, tylko na gruncie kodeksu wykroczeń. Tam się często podaje w przykładach jakieś na przykład stare zdjęcia, jeśli ktoś zniszczy takie rzeczy, ale ona jest bardzo w ograniczonym zakresie.

Czy pańska praca może się przyczynić do tego, żeby przenieść też pewne takie nowatorskie obszary ochrony na inne sprzęty, które powiedzmy nie są robotem w takim normalnym mniemaniu?

Tak, tutaj akurat tym się zajmowałem w swoim doktoracie z filozofii. Próbowałem przeszczepić taką myśl z filozofii umysłu na grunt filozofii karania. Na gruncie filozofii umysłu jedną z takich popularnych tez jest teza o rozszerzonym umyśle. Generalnie, takim dorozumianym sposobem rozumienia umysłu jest to, że to wszystko, co się znajduje w naszej głowie. Z kolei teza o rozszerzonym umyśle zyskała popularność po tym, jak technologie takie osobiste zaczęły być coraz bardziej dostępne. Że to, co się powinno liczyć jako umysł, nie zatrzymuje się na skórze naszej głowy, tylko może się rozszerzać na inne elementy. I właśnie taki telefon, smartfon często podawany jest jako przykład takiego artefaktu, który powinien być traktowany jako część naszego umysłu. No i też tutaj jestem takim zwolennikiem tej tezy. Ona jest bardzo, można powiedzieć, kontrowersyjna w pewnym względzie. Chodzi o to, by traktować pewne technologie jako część nas samych, a nie jako coś zupełnie od nas odrębnego. I odpowiadając na pana pytanie, ja tutaj bym postulował właśnie, żeby traktować te technologie jako część naszej osoby. I nawet był taki jeden tekst naukowy, w którym postulowano, żeby atak na osobiste technologie był traktowany jako atak na osobę, a nie jako atak na mienie. Właśnie ze względu na to, że tam są nasze wspomnienia, czy wiele takich emocjonalnych rzeczy, które są dla nas istotne. Ale tej ochrony w takim zakresie nie ma. To jest postulat, jak zmienić prawo na przyszłość.

Mówimy tutaj o moralności, mówimy o etyce, bo tu prawo służy też między innymi do jakiegoś porządkowania rzeczywistości z tego punktu widzenia. Ale oczywiście wśród ludzi na świecie są nieco różne systemy etyczne. Zgadzamy się co do pewnych najważniejszych rzeczy, ale niekoniecznie co do wszystkich. Jak myśli pan o twórcach robotów, o twórcach ich oprogramowania, czy powinno im się zaszczepić jakąś moralność, jakąś etykę, czy jakiś taki podstawowy szkielet tej etyki? Ja trochę wracam do tych praw Asimowa, bo one w popularnym odbiorze są takim no najprostszym skojarzeniem. Czy nie powinno być tak, że jednak wszystkie tego typu maszyny mają wbudowany zestaw trzech instrukcji, który powoduje, że pewnych rzeczy nie zrobią "no matter what"?

Dobrze, że pan o tym wspomina, bo rzeczywiście jest taka dyskusja o tym. Na przykład różne dziedziny nauki mają taki moment - można powiedzieć - dekolonizacyjny w swoim dyskursie. No i właśnie wskazuje się, że ten główny dyskurs naukowy w tej etyce dotyczącej technologii głównie dotyczył osób, które są właśnie z białego Zachodu, czyli zachodnie uniwersytety, zachodnia myśl. Więc dla nas, osoby na przykład z Polski czy z zachodnich krajów europejskich, czy ze Stanów Zjednoczonych, ten język jest taki sam. W pewnym momencie się włączyły też osoby na przykład z Chin albo z Japonii. Tam inne systemy wartości są reprezentowane. Inaczej się podchodzi do robotów. Jest jakaś taka etyka ubuntu, afrykańska. Był taki bardzo znany eksperyment Moral Machine, który był przygotowany przez naukowców z MIT z Bostonu. I oni właśnie próbowali znaleźć odpowiedzi na pytanie, jak powinniśmy się zachować. Zrobili taką ankietę w internecie, trochę popularność tej ankiety przerosła ich oczekiwania. Pomyśleli sobie dobra, no to zapytajmy się ludzi, co oni myślą, jakie powinny być te wgrane etyczne zasady. Tam właśnie były takie różne wariacje na temat tego dylematu wagonika, czyli po prostu, w kogo powinien taki autonomiczny samochód wjechać. No i się okazało ku trochę zdziwieniu autorów, że nie ma czegoś takiego jak jeden zestaw etyczny, że na przykład w jednych kulturach osoby starsze są traktowane jako większa wartość. Ciężko o tym mówić w takich kategoriach wartości, ale że większa jest wartość osób starszych. W niektórych bardziej się chroni dzieci, w niektórych się zwraca uwagę na przykład na rolę społeczną danej osoby. Ta badania były prowadzone na bardzo dużą skalę, bardzo wiele osób wzięło w nich udział. I wniosek jest taki, że wydaje się, że nie da się stworzyć takiego jednego zestawu, który by zadziałał we wszystkich miejscach, we wszystkich kulturach w ten jeden sposób.

Czyli roboty musiałyby być przygotowywane pod kątem konkretnego rynku. Tak jak zwykłe samochody mają kierownicę z lewej albo z prawej strony, albo pewne szczególne własności, które są dopasowane do warunków w danym miejscu?

Tak. Wskazuje się, że to jest jeden z ważnych elementów. Nawet ostatnio pisałem tekst do księgi o inkluzywności w zarządzaniu. I tam właśnie wskazywałem na to, w jaki sposób buduje się humanoidalne roboty. Na przykład, jeżeli firmy będą chciały mieć humanoidalne roboty w swoim portfolio i chcą brać pod uwagę jakieś kwestie równościowe, godnościowe, to nie jest tak, że jest jeden zestaw, który można wdrożyć, tylko trzeba w większym stopniu na przykład brać pod uwagę daną kulturę, w której one będą zaaplikowane. Myślenie, że nasza zachodnia etyka jest najlepsza i powinniśmy ją wszędzie wymuszać, to nie jest właściwe podejście.

A chciałem dopytać jeszcze raz o ten taki zmniejszony, okrojony zestaw reguł. Czy Pańskim zdaniem to może być jakieś rozwiązanie dla robotów?

No tylko, że w tych najprostszych sytuacjach można powiedzieć, że nie powinno się krzywdzić człowieka. No ale to jest proste i wszędzie akceptowane. Największy problem jest taki, że tutaj są niuanse i różne konteksty szczegółowe. Na takim poziomie ogólności to możemy powiedzieć, że fajnie byłoby, żeby roboty szanowały integralność cielesną ludzi. Jest też dyskusja i coraz więcej wskazuje się na to, że przy etycznych dyskusjach dotyczących AI nie bierze się pod uwagę wystarczająco dobrostanu zwierząt. Że na przykład autonomiczne samochody są jakoś projektowane, że na przykład w niektórych miejscach są okresy, w których jakieś zwierzęta przechodzą przez drogi i jeżeli się nie zaprogramuje samochodu, żeby na to zwracał uwagę, a nie po prostu ignorował te zwierzęta, no to może dojść do tego, że te samochody zupełnie są ślepe na to, że poza ludźmi są jeszcze inne byty na tym świecie, które też zasługują na jakąś etyczną ewaluację. Więc tutaj można powiedzieć, że co do zasady, no pewnie te roboty i tak będą bezpieczne w pewnym zakresie, tylko nas filozofów, etyków, prawników zawsze interesują najbardziej te takie kwestie marginalne, bo prawo karne to też jest generalnie margines społeczeństwa. Przestępstwa to jest bardzo rzadki problem.

Na szczęście...