"Wystarczy 200 czy 250 Facebookowych like’ów i algorytm jest w stanie przewidzieć nasze zachowanie oraz ocenić naszą osobowość z dużo większą dokładnością niż nawet najbliższa nam osoba. Patrząc w przyszłość należy założyć, że niezależnie od tego, czy będziemy mieli prawo do prywatności czy nie, to w praktyce prywatność będzie nam odebrana" - mówi w rozmowie z RMF FM dr Michał Kosiński, profesor uniwersytetu w Stanford, psycholog zajmujący się badaniem danych cyfrowych. O tym, jak ślady zostawiane przez nas w interenecie zdradzają naszą prywatność i jak mogą wpłynąć chociażby na bezpieczeństwo czy sądownictwo z Michałem Kosińskim podczas konferencji Blog Forum Gdańsk rozmawiał Kuba Kaługa.

Posłuchaj rozmowy Kuby JKaługi z Michałem Kosińskim z uniwersytetu Stanford

Kuba Kaługa: W trakcie swojej prelekcji - podczas Blog Forum Gdańsk - opowiadałeś o cyfrowych śladach, o tym co zostawiamy po sobie w intrenecie. Stawiasz też tezę "koniec prywatności". Można powiedzieć, że strach się bać.

Michał Kosiński: Można się bać. Jest to na pewno przyszłość, której należy się trochę obawiać. Myślę jednak, że powinniśmy skupić się na tym, jak tę przyszłość sobie tak urządzić, aby była ona tak piękna i wygodna jak teraźniejszość.

Rzeczywiście jest tak, że powstały bardzo dokładne algorytmy, które mogą wiele o nas powiedzieć, chociażby na podstawie like’ów na Facbooku?

Cytat

Dokładnie tak. Okazuje się że Facebookowe polubienia, nasze tweety, nasze updaty na Facebooku, nasza historia przeglądarki czy historia wyszukiwania pozwalają algorytmom komputerowym bardzo dokładnie ocenić nasze intymne cechy. Takie jak osobowość, inteligencja, poglądy polityczne czy nawet orientacja seksualna.

Jak bardzo dokładnie?

Bardzo często dokładniej niż inni ludzie są w stanie te cechy ocenić. Na przykład w jednym z naszych badań pokazaliśmy, iż algorytmy komputerowe są w stanie ocenić osobowość człowieka z dużo większą dokładnością niż małżonek czy małżonka tej osoby.

Ile like’ów taki algorytm musi przeanalizować, żeby być bardziej dokładnym w ocenie człowieka niż na przykład żona czy mąż?

Cytat

Aby ocenić cię tak dokładnie, jak twój kolega z pracy wystarczy zaledwie 10 like’ów

Oczywiście małżonek czy małżonka zna nas dużo lepiej, ale okazuje się, że wystarczy 200 czy 250 Facbookowych like’ów i algorytm jest w stanie przewidzieć nasze zachowanie i ocenić naszą osobowość z dużo większą dokładnością niż nawet najbliższa nam osoba.

Opowiadałeś też o tym, że na przykład 5 zdjęć mężczyzny wystarczy, żeby ocenić jego orientację seksualną. Z sali padło bardzo ciekawe pytanie. Czy idziemy w tym kierunku, że na podstawie takich zdjęć będziemy w stanie dowiedzieć się, czy ktoś jest na przykład przestępcą?

Takie produkty są już w tym momencie wdrażane w różnych krajach i to oczywiście rzecz, która z jednej strony jest bardzo niepokojąca i moje badania skupiają się właśnie na negatywnych aspektach tych technologii. Ale oczywiście nie należy zapominać, że takie technologie mają też swoje pozytywne cechy.

Jakie na przykład?

Myślę, że większość ludzi w większości krajów zgodziłaby się na to, jeżeli stosowanie takich technologii pozwoliłoby nam na przykład zmniejszyć ryzyko, że ktoś wysadzi się w powietrze na danym stadionie sportowym, czy ktoś skrzywdzi dziecko, czy zabije drugiego człowieka. Myślę, że bylibyśmy w stanie dyskutować o tym, że jakąś część naszej prywatności jesteśmy gotowi temu poświęcić. To jest takie odwieczne pytanie: z jednej strony chcemy skutecznej policji, z drugie strony im skuteczniejsza jest policja, tym bardziej często nasze wolności i prywatność jest ograniczona. I społeczeństwa są w takim ciągłym procesie odkrywania tego jak ustalić, w danym społeczeństwie, kompromis pomiędzy prywatnością i naszymi prawami a ochroną naszego bezpieczeństwa, zdrowia i interesów.

Czy mamy konkretne przykłady, gdzie w praktyce ktoś to już zastosował?

Cytat

W wielu krajach stosuje się teraz algorytmy, które pomagają sędziom ocenić, jaka jest szansa, że dana osoba, czy to wypuszczana właśnie z więzienia czy będąca do więzienia wysyłana, popełni znowu przestępstwo, jeżeli ją z tego więzienia wypuścimy.

 I teraz z jednej strony jest to oczywiście niepokojące, dlatego że to algorytm de facto decyduje o wolności lub braku wolności danego człowieka. Co więcej, taki algorytm jest dla nas często niezrozumiały. Jest to tak zwana czarna skrzynka, nie wiemy, co się w nim dzieje.

Nie wiemy, na czym dokładnie ta analiza - jak rozumiem - polega?

Dokładnie tak.

Od razu się rodzi pytanie o niezawisłość, o wolność takiego sędziego.

Okazuje się, że w momencie, kiedy dajemy sędziom takie narzędzia, takie algorytmy, które pomagają im ocenić ryzyko podjęcia danej decyzji, to z jednej strony to jest nadal sędzia, który wydaje swój wyrok, ale z drugiej strony sędzia bardzo rzadko sprzeciwi się algorytmowi. Dlaczego? Dlatego, że jeżeli on się temu algorytmowi sprzeciwi, to w przyszłości może być oskarżony o postepowanie nierozsądne. Czyli okazuje się, że w praktyce sędziowie po prostu stosują się do tego, co algorytm im doradzi. Innymi słowy to algorytm, a nie sędzia wydaje wyroki.

A czy ktoś już zbadał skuteczność takiego narzędzia?

Z jednej strony jest to technologia, która oczywiście powoduje, iż przynajmniej ja czuję się bardzo nieswojo i obawiam się, że ma to bardzo duże, etyczne i moralne implikacje, jeżeli teraz wydajemy wyroki na podstawie algorytmów, które są nie do końca zrozumiałe i tak naprawdę nie wiemy, co dokładnie się w takim algorytmie często dzieje. Z drugiej strony jednak, jeżeli patrzymy na wyniki takich działań to są one bardzo pozytywne. W wielu miejscach, gdzie takie algorytmy są stosowane, populacja ludzi w więzieniu została zmniejszona, więcej ludzi zostało wypuszczonych na wolność, a wskaźniki przestępczości nie zmieniły się. Zastosowanie tej czarnej skrzynki, z jednej strony jest etycznie kłopotliwe, z drugiej strony ma wspaniałe moralne i etyczne zalety. Pozwala nam wypuścić więcej ludzi z więzienia i zachować niską przestępczość.

Można się pokusić o takie stwierdzenie, że komputer, algorytm jest pozbawiony pewnych negatywnych cech, których człowieka nie da się pozbawić? Bo każdy z nas ma jakąś swoją osobowość, swoje poglądy.

Krytycy używania algorytmów do podejmowania takich i innych decyzji często podnoszą, iż te algorytmy nie są perfekcyjne, że one nie zawsze podejmują najwłaściwszą decyzję. Musimy jednak pamiętać o tym, iż skuteczność takiego algorytmu musi być zawsze rozpatrywana w kontekście alternatywy. I alternatywą często dla algorytmu jest decyzja podjęta przez człowieka.

A człowiek może się mylić.

Człowiek się myli, człowiek jest często rasistą, seksistą, człowiek jest często skorumpowany. Oczywiście zdąża się, że decyzja człowieka będzie lepsza i dokładniejsza i uczciwsza niż decyzja algorytmu. Na przestrzeni długiego czasu okazuje się jednak, że algorytmy są bardziej sprawiedliwe, bardziej uczciwie i wydają lepsze decyzje niż ludzie. Co więcej, trudno jest czasami usprawnić decyzje wydawane przez ludzi. Pracowaliśmy nad tym przez setki lat, a okazuje się że algorytmy, które mamy dzisiaj, z każdym dniem stają się coraz lepsze i coraz dokładniejsze. Dlatego nawet jeżeli dzisiaj, w wielu aspektach, decyzja człowieka jest nadal lepsza, niż decyzja algorytmu, powinniśmy przygotować się na przyszłość, w której algorytmy będą podejmowały coraz większą liczbę decyzji za nas.

A czy myślisz, że przyjdzie taki dzień, w którym prawo do prywatności zniknie nam z listy praw człowieka?

Czy ono zniknie z listy praw człowieka, czy nie, jest zupełnie odrębną kwestią, co do tego czy będzie to prawo egzekwowalne w jakimś stopniu. Zwłaszcza jeżeli twoje dane mogą być w bardzo prosty sposób wykradzione i nawet nie będziesz o tym wiedział. Mamy wiele przykładów, które pokazują, że nasze dane, z naszych profili są kradzione, zarówno nam bezpośrednio jak i z firm, które tymi danymi się opiekują. Jeżeli algorytmy będą stawały się, a stają się, coraz lepsze w zamienianiu tych danych, w bardzo dokładne predykcje dotyczące naszych cech intymnych oraz naszego przyszłego zachowania. 

Cytat

Patrząc w przyszłość należy założyć, że niezależnie od tego, czy będziemy mieli prawo do prywatności czy nie, to w praktyce ta prywatność będzie nam odebrana.

 Patrząc w przyszłość powinniśmy zastanowić się, czy nie lepiej po prostu założyć, że tej prywatności nie będzie i nie postępować tak, jakby tej prywatności nie było. Jeżeli jesteś firmą, rządem czy instytucją, jeżeli piszesz maila, czy wydajesz rozkazy swoim podwładnym załóż, że te rozkazy będą publiczne, czy mogłyby się stać publiczne w przyszłości. Z jednej strony ogranicza nam to wolność działania w rożnych przypadkach, ale z drugiej strony taka transparentność dodaje nam etyki i moralności w działaniu.