"Komputerowy algorytm może stwierdzić, czy jest pan osobą emocjonalną, czy emocjonalnie stabilną. Teraz ta wiedza może być wykorzystana do tego, żeby dobrać najlepszą wiadomość, czyli taką, która będzie dla pana najbardziej przekonująca" - tłumaczy współczesne propagandowe strategie wyborcze w rozmowie z dziennikarzami RMF FM Bogdanem Zalewskim i Michałem Zielińskim dr Michał Kosiński, światowy specjalista w dziedzinie psychometrii.

"Komputerowy algorytm może stwierdzić, czy jest pan osobą emocjonalną, czy emocjonalnie stabilną. Teraz ta wiedza może być wykorzystana do tego, żeby dobrać najlepszą wiadomość, czyli taką, która będzie dla pana najbardziej przekonująca" - tłumaczy współczesne propagandowe strategie wyborcze w rozmowie z dziennikarzami RMF FM Bogdanem Zalewskim i Michałem Zielińskim dr Michał Kosiński, światowy specjalista w dziedzinie psychometrii.
Lokal wyborczy /Bernhard, A./DPA /PAP/EPA

Bogdan Zalewski: Połączyliśmy się za Stanford University w Stanach Zjednoczonych. Naszym gościem jest pracujący tam polski uczony doktor Michał Kosiński. Dzień dobry Panu!

Michał Kosiński: Dzień dobry Państwu!  

Bogdan Zalewski: Studiował pan najpierw w Warszawie, aż doszedł pan do pozycji jednego z najważniejszych światowych ekspertów w dziedzinie psychometrii. Proszę pokrótce wyjaśnić, co to za dziedzina nauki i czym się pan konkretnie zajmuje.  

Michał Kosiński: Psychometria zajmuje się mierzeniem psychologicznych cech, takich jak osobowość, inteligencja lub polityczna afiliacja. Tradycyjne metody, które są zwykle używane w psychometrii to: testy, kwestionariusze i ankiety. Przez wiele lat badania psychometryczne opierały się i do dzisiaj opierają się głównie na takich narzędziach. W moich badaniach pokazałem, że możemy mierzyć te same cechy: osobowość, inteligencję i polityczne poglądy, obserwując zachowanie ludzi w Internecie.

Bogdan Zalewski: Czyli, można powiedzieć - tak w uproszczeniu - że zajmuje się pan definiowaniem człowieka za pomocą śladów, które pozostawia po sobie, czy o tym wie, czy nie wie, czy tego chce, czy nie?  

Michał Kosiński: Dokładnie tak. W tradycyjnym kwestionariuszu czy ankiecie ludzie, którzy uczestniczą w badaniu muszą wypełnić ankietę i są w pełni świadomi tego, że jest wypełniania. Używając metody, która opiera się na śladach w Internecie, możemy zastąpić ankietę komputerowym algorytmem, który czyta państwa wiadomości na Twitterze i na Facebooku, czyta maile, czy ogląda strony internetowe oraz lajki facebookowe, czyli to co państwo "polubili".

Michał Zieliński: Kiedy pan wpadł na taki pomysł, żeby w ten sposób "mierzyć" człowieka poprzez jego aktywność w Internecie?

Michał Kosiński: Kilka lat temu, kiedy zajmowałem się budową tradycyjnych kwestionariuszy osobowości, zwróciłem uwagę na to, że zamiast pytać ludzi, czy lubią określone zachowania, czy lubią słuchać muzyki, czy wychodzić z domu, czy też wolą czytać książki, możemy w  dzisiejszych czasach sprawdzić, czy takie zachowania ludzie preferują, czy nie, poprzez oglądanie ich danych, które wszyscy zostawiają podczas korzystania z Internetu i innych cyfrowych technologii.

Bogdan Zalewski: A jak się ustrzec przed taką totalną inwigilacją i jej efektami?

Michał Kosiński: Myślę, że przede wszystkim należy pamiętać, że taka technologia ma bardzo wiele zalet i jest szeroko wykorzystywana w produktach, które ludzie lubią; lubią korzystać z nich i uznają je za przydatne. Wyszukiwarka Google, kiedy wpisuje pan kwerendę wyszukiwania, patrzy nie tylko na to, co jest w kwerendzie, ale też na poprzednie pana zachowania i dzięki temu jest w stanie wybrać jak najlepsze wyniki, które jak najlepiej odpowiadają temu, czym konkretny użytkownik jest zainteresowany. Tak samo usługi takie jak Facebook, gdzie algorytmy badają, czym ludzie są zainteresowani i dobierają wiadomości i artykuły, które są pokazywane na news feedzie, tak żeby jak najlepiej odpowiadały zainteresowaniom.

Bogdan Zalewski: Czyli wyprzedzają nasze potrzeby...

No, może nie wyprzedzają, ale starają się przewidzieć jakie pan ma zainteresowania i dobrać takie historie, którymi pan będzie najbardziej zainteresowany. Coraz więcej firm jest zainteresowanych w zastępowaniu kwestionariuszy osobowości i testów inteligencji w kontekście poszukiwania pracy. Dziś doradztwo psychologiczne w poszukiwaniu pracy jest zarezerwowane tylko dla najwyższych stanowisk i ludzi z bogatszych krajów i sfer. Jeśli moglibyśmy zastąpić drogi czas psychologa tanim czasem algorytmu, który w wielu sprawach okazuje się być dokładniejszy i bardziej rzetelny niż tradycyjny kwestionariusz, moglibyśmy korzyści z psychologicznych badań oferować ludziom, którzy nie mają dziś do nich dostępu. Ale te mocne strony algorytmów, które tworzę i badam, mają też swoje negatywne konsekwencje. Możemy bowiem ich używać, żeby w tani sposób badać psychologiczne profile wielu osób przy ich zgodzie i aprobacie, ale te same algorytmy mogą być niestety także wykorzystywane, żeby badać psychologiczne cechy ludzi i ich intymne cechy, takie jak poglądy polityczne czy nawet orientację seksualną, bez powiadamiania ludzi, że badania są na nich przeprowadzane.

Michał Zieliński: I to się już dzieje, tak?

Niestety, wydaje się, że firmy zaczynają takie badania wykorzystywać na przykład do pokazywania reklam, które są celowane w pana profil psychologiczny. Dla każdej osoby oddzielnie można taką reklamę dobrać, żeby najlepiej odpowiadała zainteresowaniom. Można powiedzieć, że taki personalizowany marketing ma wiele zalet i jeśli byłby przeprowadzany w etyczny, poprawny sposób, za zgodą użytkownika, to jest to technologia wspaniała. Nawet w przypadku polityków. Tradycyjnie politycy z użyciem telewizji czy radia kierują wiadomość do całych populacji. Bywało, że ludzie byli wykluczeni z przekazu politycznego, bo nie byli zainteresowani tym, co polityk mówi. Dzięki spersonalizowanemu marketingowi politycznemu polityk może taką wiadomość dla każdej osoby przekształcić tak, by była jak najbardziej interesująca i bliska temu, czym ta osoba jest zainteresowana i jaki ma charakter. Co jest wspaniałą rzeczą, bo możemy dzięki temu zainteresować więcej ludzi polityką, zaktywizować więcej osób i co ważne dzięki Internetowi i Twitterowi ludzie mogą odpowiedzieć politykom. Dzięki temu tworzy się ten wspaniały dialog między wyborcą i politykiem. Niestety to samo psychologiczne profilowanie może się odbywać bez zgody i świadomości ludzi, co oczywiście jest, moim zdaniem, nieetyczne.

Bogdan Zalewski: Właśnie, pan często użył słowa "wspaniały", a mnie się to kojarzy z huxleyowskim "Nowym wspaniałym światem". Głośno się zrobiło o pana metodzie przy okazji Brexitu i wygranej Donalda Trumpa. Do czego i w jaki sposób polityczne sztaby wykorzystały psychometrię?

Michał Kosiński: Przede wszystkim należy zauważyć, że wszystkie sztaby korzystają w dzisiejszych czasach z dużych baz o wyborcach, starając się celować swój polityczny marketing we właściwe grupy, które mogłyby być podatne na zmianę zdania oraz dobierać wiadomość w taki sposób, by były one dla danej osoby jak najbardziej przekonujące. To znów wspaniała rzecz, bo chciałbym, żeby ludzie starali się rozmawiać z ludźmi bardziej jeden na jednego, a nie tworzyć jedną wiadomość, którą każdy powinien być zainteresowany. Cieszę się, że politycy teraz chcą zrozumieć ludzi na indywidualnym poziomie, a nie na poziomie populacji.

Bogdan Zalewski: No, tak. Ale oni wiedzą nie tylko, co do mnie mówić, ale czego do mnie nie mówić, skoro mają taki profil...

Michał Kosiński: To prawda, że każda wspaniała technologia może być wykorzystywana w sposób, który jest nieetyczny.

Michał Zieliński: Jak pan ocenia przykłady zastosowania metod opartych o pana badania przy okazji kampanii przed Brexitem i udanej kampanii prezydenckiej Donalda Trumpa? Czy w tych dwóch przypadkach było to działanie etyczne, z otwartą przyłbicą? Czy to było dostosowane do potrzeb wyborcy, czy raczej było to manipulatywne i przeprowadzone w sposób, który nie budzi pana entuzjazmu i zaufania?

Michał Kosiński: Przede wszystkim należy zauważyć, że ja nie posiadam żadnej wiedzy, jak te kampanie odbywały się za zamkniętymi drzwiami. Moja cała wiedza pochodzi z artykułów prasowych, więc nie mam tutaj żadnych dodatkowych wiadomości.

Michał Zieliński: Oczywiście o to pytam. Jednak wie pan dużo więcej niż my na temat podstaw działania tych ...

Bogdan Zalewski: ... mechanizmów ...

Michał Zieliński: ... algorytmów.

Michał Kosiński:  Myślę, że ludzie nie zdają sobie sprawy z tego, że w dzisiejszych czasach takie algorytmy stosowane są bardzo szeroko. Można zakupić bazę użytkowników. Taka baza danych będzie zawierała imię, nazwisko, adres, a także adres e-mailowy, ale poza tymi podstawowymi informacjami może zawierać dużo śladów internetowych, takich jak: lajki na Facebooku, czy wiadomości wysłane na Twitterze, albo informacje o rzeczach zakupionych w różnych sklepach internetowych. Firmy handlują tymi danymi i polityczne organizacje także takie dane mogą zakupić. Co jest bardzo ważne? To, że takie ślady internetowe można przekształcić, stosując komputerowe algorytmy, w bardzo dokładne psychologiczne profile tych ludzi. Można przekształcić ich facebookowe lajki, czy wiadomości z Twittera w bardzo dokładne wyniki osobowości, inteligencji, politycznych i religijnych poglądów, czy nawet orientacji seksualnej. Takie szczegółowe profile mogą być wykorzystywane do tego, aby dobierać polityczne wiadomości w taki sposób, aby były one najbardziej przekonujące. Wydaje mi się, że jeżeli takie działanie odbywa się bez powiadamiania ludzi - "hej, wiemy o tobie następujące rzeczy i będziemy to wykorzystywać w marketingu"- to jest to bardzo niewłaściwe etycznie.

Bogdan Zalewski: A w jaki sposób można tak precyzyjnie dopasować ten komunikat do człowieka. Powiedzmy: jestem heteroseksualnym mężczyzną, Polakiem, ostatnio kupowałem koszulę koloru błękitnego, spotykałem się ze znajomymi w takim a nie innym klubie. Co na podstawie takich informacji, zbieranych chyba nie tylko z Internetu ale i z mojej komórki, mogą ze mnie "wyciągnąć" sztaby wyborcze?

Michał Kosiński: Na podstawie takich demograficznych informacji, czy też informacji o pana zachowaniu- gdzie pan bywa, jakie książki pan czyta, jakie strony internetowe pan odwiedza- komputerowe algorytmy mogą przekształcić te dane dotyczące pana psychologicznych cech, takich jak na przykład pana emocjonalność. Komputerowy algorytm może stwierdzić, czy jest pan osobą emocjonalną, czy emocjonalnie stabilną. Teraz ta wiedza może być wykorzystana do tego, żeby dobrać najlepszą wiadomość, która będzie dla pana najbardziej przekonująca. Dla przykładu: jest pan osobą bardzo emocjonalnie stabilną, czyli łatwo się pan nie  denerwuje, zawsze jest pan spokojny.

Jeżeli chciałbym pana do czegoś przekonać, to powinienem moją wiadomość skonstruować w taki sposób, żeby panem troszeczkę wstrząsnąć. Może powinienem użyć obrazu, który pokazuje coś drastycznego, albo użyć hasła, które zawiera w sobie dużo emocjonalnych wiadomości, żeby trochę potrząsnąć tą pana emocjonalną stabilnością i do pana dotrzeć. Jest bardzo dużo badać wskazujących, że taka wiadomość byłaby dla pana bardziej przekonująca. Z drugiej strony, jeżeli wiemy, że dana osoba nie jest emocjonalnie stabilna, jest bardzo emocjonalna, bardzo łatwo ją zestresować, wtedy taka sama wiadomość potrząsająca nią byłaby zupełnie bezużyteczna. Taką osobę powinniśmy postarać się uspokoić. Powinna to być wiadomość pokazująca :"hej, wszystko będzie dobrze, zagłosuj na nas, nie będzie tu żadnych stresów". Taka wiadomość będzie miała dużo lepszy efekt.

Michał Zieliński: Panie doktorze, ja chciałbym jeszcze wrócić do kwestii etycznej oceny tego rodzaju kampanii wyborczej. Chciałbym tak trochę przewrotnie zapytać, zaczynając od tego, że przecież już kilkadziesiąt lat temu pojawiła się obserwacja, że w zasadzie kandydatów politycznych sprzedaje się jak proszek do prania, prawda? Takie kampanie są już od dawna oparte na emocjach i na pewnych chwytach, które wyborcy już poznali, mniej lub bardziej. Czy to nie jest tak, że teraz ta zindywidualizowana, wycelowana kampania wyborcza jest tylko nową emanacją dotychczasowych praktyk, dostosowaną do nowych technologii? Czy za 10-15 lat to nie będzie coś całkowicie normalnego i wszystkie strony wyborczego wyścigu będą używać podobnych metod?

Michał Kosiński: Absolutnie się z panem zgadzam. Techniki wywierania wpływu na ludzi studiowane były od wielu lat naukowo, a od wielu tysięcy lat były stosowane nienaukowo. Można powiedzieć, że duża część naszych społecznych interakcji opiera się na ludziach starających się wywrzeć wpływ pozytywny i negatywny na innych. Nowoczesna technologia pozwala stosować takie techniki na poziomie indywidualnych jednostek. W przeszłości polityk, czy sprzedawca proszku do prania, musiał dobrać strategię, która będzie najlepiej działała w całej populacji, albo będzie najlepiej działała w określonej części populacji, do której dany proszek do prania, czy dany polityk był celowany. W dzisiejszych czasach, korzystając z marketingu cyfrowego, możemy tę wiadomość dostosować do każdej osoby indywidualnie. Dzięki temu taka kampania staje się wielokrotnie potężniejsza, jeśli chodzi o zachęcenie do kupowania danego produktu, lub zagłosowania na danego kandydata.

Michał Zieliński: Ale właśnie, czy tutaj nie jest przekroczona pewna granica? Bo w tym wypadku ta metoda oparta jest o wiedzę dotyczącą wyborcy, która - jeżeli jeszcze nie teraz, to może w przyszłości - przekroczy jego własne rozumienie siebie samego. Czy nie jest wobec tego tak, że ten wpływ na decyzje poszczególnych wyborców, czy też konsumentów, będzie tak duży, że w zasadzie podważy to istotę wolnego wyboru, a w związku z tym demokracji?

Michał Kosiński: Zupełnie się z panem zgadzam. Zarówno ludzie, którzy zajmują się tworzeniem nowego prawa, jak i ludzie, którzy są odpowiedzialni za tworzenie nowych technologii, stanowczo dużo bardziej powinni się interesować tymi problemami. Duża część mojej pracy polega na pisaniu artykułów i wykładaniu na temat ryzyka, jakie nowe technologie niosą ze sobą. Szczególnie chodzi o ryzyko w kontekście wywierania wpływu na ludzi oraz końca prywatności. Jeżeli takie algorytmy są w stanie odkryć nasze intymne cechy, takie jak na przykład polityczne poglądy czy orientację seksualną po prostu na podstawie stron internetowych, które odwiedziliśmy, czy muzyki, której słuchaliśmy w Internecie, to jesteśmy w sytuacji, w której może pan nigdy oficjalnie nie stwierdzić, jakie ma pan poglądy polityczne, a komputerowy algorytm, wystarczy, że "spojrzy" na muzykę, której pan słucha, czy książki, które pan czyta, nawet jeżeli nie czyta pan żadnych książek politycznie motywowanych, a i tak ten algorytm będzie w stanie odkryć tę pana cechę intymną.

Dziś w Europie, w Ameryce, kiedy mamy czasy stosunkowo otwarte, wolne, mamy wolność słowa, takie algorytmy powodują, że ludzie czują się troszeczkę niekomfortowo. Definitywnie mamy problem. Może to u nas nie jest to wielki problem. Jednak proszę pamiętać, że jest na świecie wiele krajów, a i może w Europie, czy w Ameryce przyjdzie taki czas, kiedy posiadanie nieprawidłowych poglądów politycznych, nieprawidłowej religii, lub nieprawidłowej orientacji seksualnej, jest bardzo niebezpieczne. I w takim przypadku algorytmy, które są w stanie przewidzieć te cechy, bazując na pana internetowym zachowaniu, stają się bardzo niebezpiecznym narzędziem.

Bogdan Zalewski: To zresztą już było w historii. Bo dane zebrane na temat obywateli w Holandii przed drugą wojną światową przy okazji spisu powszechnego posłużyły później hitlerowcom do namierzania i aresztowania osób pochodzenia żydowskiego. Ta sytuacja może się powtórzyć i dzisiaj, w różnych odsłonach, prawda?

Michał Kosiński: To prawda! Proszę pamiętać, że technologie komputerowe umożliwiają przeprowadzenie takich samych badań, czy takich samych spisów przy użyciu dużo mniejszej liczby ludzi i dużo krótszego czasu. Jeśli patrzymy na wschodnie Niemcy, Stasi zatrudniała -jeśli dobrze pamiętam - setki tysięcy ludzi do inwigilowania innych i prowadzenia zapisów na temat poglądów obywateli i ich zachowań. W dzisiejszych czasach kilka komputerów i może kilkunastu ludzi zajmujących się obsługą tych komputerów wystarczyłoby do przeprowadzenia takiego samego, jeżeli nie dokładniejszego spisu poglądów i zachowań wszystkich obywateli w danym kraju.

Michał Zieliński: Jak rozumiem, jest pan pesymistą co do możliwości opanowania tego ...

Bogdan Zalewski: ... potwora!

Michał Zieliński: Tak, potwora! Za pomocą regulacji.

Michał Kosiński: Jestem bardzo dużym optymistą. Myślę, że należy pamiętać i zwracać uwagę, podnosić negatywne skutki tych technologii. Bardzo duża część moich badań skupia się na mówieniu o negatywnych aspektach tych technologii. Absolutnie trzeba unikać negatywnych zdarzeń. Wydaje mi się jednak, że ludzkość poradziła sobie z dużo gorszymi problemami. Poradziliśmy sobie, wydaje mi się, całkiem dobrze z energią nuklearną. Rozwiązaliśmy problemy zdrowia, głodu i być może rozwiążemy w przyszłości problem globalnego ocieplenia, więc myślę, że poradzimy sobie także z komputerowymi algorytmami.

Bogdan Zalewski: Ale tak na dziś, żeby się ustrzec przed totalnym śledzeniem nas, to co? Nie mieć konta na Twitterze, profilu na Facebooku, a najlepiej w ogóle nie korzystać z Internetu? Jak rozumiem, komórki też nie mieć?

Michał Kosiński: Absolutnie nie! To byłoby najgorsze wyjście. Przecież te technologie powodują, że nasze życie jest pełniejsze, łatwiejsze, przyjemniejsze. Umożliwiają nam one kontakt z rodziną i znajomymi. Byłoby to absolutną tragedią i, powiem szczerze, obawiam się tego, że jeżeli ludzie stracą zaufanie do tych technologii, będą się czuli szpiegowani, niektórzy mogą podjąć działania, o których pan wspomniał. Byłoby to, moim zdaniem, absolutnie najgorszym wyjściem. Myślę, że powinniśmy się skupić przede wszystkim na wybieraniu technologii, wybieraniu polityków, którzy zainteresowani są myśleniem i działaniami, mającymi na celu ochronę naszej prywatności. Należy pamiętać, że tak naprawdę to nie wiemy, jak najlepiej tę prywatność chronić. Technologia i świat zmieniają się tak szybko, że musimy założyć, iż firmy będą robiły błędy, często nie celowo, tylko po prostu przez przypadek.

Nikt wcześniej nigdy takiej technologii nie miał, więc firma często -uczciwie - nie zdawała sobie sprawy, że mogła być ta technologia wykorzystana czy nadużyta przeciwko ludzkiej prywatności. Musimy po prostu inwestować czas i wysiłek, żeby takie ryzyka wyłapywać wcześnie i starać się im zaradzić. Jednak z drugiej strony myślę, że powinniśmy skupić na tworzeniu społeczeństw, które są bardziej otwarte na świat, które są lepiej wyedukowane. W społeczeństwie, w którym mamy dużo edukacji, dużo otwartości, dużo tolerancji, nie ma to znaczenia, czy pan wie o czyjejś orientacji seksualnej czy o poglądach politycznych i religijnych. Bo ludzie są tolerancyjni i otwarci. W takim społeczeństwie nie ma znaczenia, czy polityk się stara manipulować ludźmi, czy nie, bo ludźmi którzy są doskonale wykształceni jest dużo trudniej manipulować. Więc myślę, że powinniśmy się skupić na zwiększaniu tolerancji i zwiększaniu edukacji. Wtedy te ryzyka, jakie te algorytmy ze sobą niosą, będą po prostu mniej istotne.

Bogdan Zalewski: Pan wspomniał o inwestowaniu czasu. My bardzo dobrze zainwestowaliśmy czas, rozmawiając z panem. To ogromna i bezcenna wiedza, która przydaje się również w codziennym życiu, wbrew pozorom.

Michał Zieliński: I przyda się także naszym słuchaczom.

Michał Kosiński: Bardzo państwu dziękuję. Dobrze czasami pogadać z Polską.          

(Rozmowa przeprowadzona 10 stycznia 2017 roku)

PRZECZYTAJ WIZJĘ PRZYSZŁYCH WYBORÓW PIÓRA DZIENNIKARZA RMF FM BOGDANA ZALEWSKIEGO.   

PRZECZYTAJ WIZJĘ PRZYSZŁYCH WYBORÓW PIÓRA DZIENNIKARZA RMF FM MICHAŁA ZIELIŃSKIEGO.