"Nigdy nie było wielkiej zmiany technologicznej, która nie pociągałaby za sobą wielkiej transformacji społecznej, dlatego obawy związane z rozwojem sztucznej inteligencji są zrozumiałe" - mówi RMF FM Michael Hsieh z Center for International Security and Cooperation na Uniwersytecie Stanforda. Jak podkreśla w rozmowie z RMF FM, po raz pierwszy pytania o przyszłość stawiają nie tylko pracownicy fizyczni, ale też wysoko wykwalifikowani specjaliści. W rozmowie z Grzegorzem Jasińskim Hsieh przypomina, że sztuczna inteligencja to globalna gra, a Stany Zjednoczone nie są jedynym krajem rozwijającym tę technologię. Przekonuje, że warto, żeby zwycięzcami na rynku były kraje i kultury, które tworzą sztuczną inteligencję w sposób politycznie odpowiedzialny.

Michael Hsieh współpracuje z Center for International Security and Cooperation na Uniwersytecie Stanforda, gdzie koncentruje się na wpływie technologii na różne aspekty spraw publicznych. Jest ekspertem w dziedzinie obliczeń kwantowych oraz ich wpływu na sztuczną inteligencję, cyberbezpieczeństwo, gospodarkę i uczenie maszynowe. Wcześniej pełnił funkcję dyrektora wykonawczego Transformative Cyber Innovation Lab, organizacji non-profit zajmującej się cyberbezpieczeństwem, oraz wspierał projekty w Defense Advanced Research Projects Agency (DARPA). Do Polski przyjechał na zaproszenie ambasady USA w Warszawie.

Grzegorz Jasiński, RMF FM: Pozwolę sobie zacząć od tytułu pańskiego wykładu sprzed kilku lat. "Cokolwiek robisz, AI może zrobić lepiej". I oczywiście znamy tę piosenkę, musical z którego ona pochodzi, ale chciałbym zapytać po kilku latach, czy uważa pan, że to nadal prawda, czy może teraz jest to jeszcze bardziej prawdziwe, niż wcześniej?

Michael Hsieh: To bardzo zabawne pytanie. Powiem dlaczego. Bo w pewnym sensie, w niektórych problemach, uważam, że jest to jednoznacznie bardziej prawdziwe dzisiaj, niż kiedy indziej. Zacznę od czegoś, co jest mi bliskie, czyli matematyki. Był czas, kiedy można było zmylić AI bardzo głupimi sformułowaniami problemów matematycznych i arytmetycznych, które powodowały, że popełniała błędy. Jeśli zapytasz "dwa plus dwa", poda cztery, ale jeśli powiesz: "Mam dwa jabłka i dwie pomarańcze, ile mam owoców?", to wystarczyło, by ją zmylić. Ale teraz, są problemy, takie jak bardzo znane problemy postawione przez wielkiego węgierskiego matematyka, Paula Erdősa, które przez wiele dekad pozostawały nierozwiązane, a obecne systemy dowodzenia matematycznego, takie jak Lean, potrafią skutecznie tworzyć generatywne i oryginalne rozwiązania. W tej dziedzinie jest po prostu lepiej. Jednak pojawia się też przewrotny efekt. Bo powiedzieć, że jest lepiej, oznacza, że mierzymy to według ludzkiego standardu, ale z powodu AI, o ironio, ten ludzki standard faktycznie się pogarsza. Bez wątpienia wielu słuchaczy jest świadomych zjawiska zwanego "AI deskillingiem", czyli degradacją umiejętności, gdzie na przykład lekarze, np. radiolodzy, których umiejętności czytania radiogramów, zdjęć rentgenowskich i tym podobnych, pogarszają się im bardziej korzystają z AI. Widzimy to także wśród inżynierów oprogramowania, im więcej korzystają z AI, tym bardziej spadają ich własne umiejętności. Więc powiedziałbym, że tak, w pewnych aspektach AI radzi sobie lepiej, ale w innych faktycznie obniżyło standard ludzkich umiejętności. Więc to jest miecz obosieczny.

Pytałem kilku matematyków o ich przyszłość i raczej dość pewnie przekonywali, że nadal będzie dla nich praca. Ale ktoś może powiedzieć, że to prawdopodobnie jedna z nauk, w których AI może być naprawdę potężne i może pozbawić ludzi pracy.

Myślę, że w dłuższej perspektywie postawiłbym tu jednak na człowieka. Była taka myśl przypisywana Emile’owi Artinowi, innemu wielkiemu matematykowi XX wieku, który próbował stworzyć hierarchię trzech rodzajów matematyków. Mówił, że dobry matematyk potrafi dostrzec analogię między twierdzeniami, większy matematyk potrafi dostrzec analogię między teoriami, a największy matematyk potrafi dostrzec analogie między analogiami. To jest umiejętność, której nie przewiduję, by AI miało w najbliższym czasie opanować. To ekstremalnie różnorodne myślenie, które dało nie tylko największe przełomy w matematyce, ale też we wszystkich naukach formalnych, fizyce teoretycznej, informatyce i tym podobnych dziedzinach. Myślę, że zawsze będzie miejsce dla takiego formatu matematyków i to miejsce będzie w dużej mierze zajmowane przez ludzi. 

Dodam jeszcze jedną rzecz, która może być ciekawym zjawiskiem nowej ery AI w matematyce, o którym wspomniał niedawno inny wielki matematyk, Terence Tao. Zauważył on zjawisko spontanicznie powstających społeczności matematycznych, które nazwałbym amatorskimi matematykami, ludźmi, którzy nie zajmują się tym zawodowo, mogą to być inżynierowie, inni technicy lub osoby spoza branży technicznej, którzy korzystają z AI opartych na dużych modelach językowych do przeprowadzania eksperymentów numerycznych, które wspierają wgląd w różne problemy od teorii liczb, przez geometrię, topologię, aż po inne dziedziny. Kiedyś matematyka była tak wyrafinowana, że jeśli nie byłeś na najwyższym poziomie ekspertów, nie miałeś szans dodać tam realnego wkładu, na przykład w geometrii algebraicznej trzeba było być po doktoracie, by zrobić coś znaczącego. Teraz dochodzimy do punktu, w którym widzimy w matematyce to, co kilka lat temu w szachach, że jeśli masz stosunkowo dobrze zmotywowanego, wystarczająco wytrenowanego amatora, może on coś dodać do matematycznego zasobu wiedzy, tak jak przeciętny, ale dobry gracz w szachy z dobrze wybranym programem szachowym może grać na poziomie wyższym niż arcymistrzowie. Dla tych, którzy śledzą szachy, jeśli mistrz świata ma około 2900 punktów Elo, to niektórzy szachowi gracze amatorzy, dobrzy gracze amatorzy korzystający z programów, mają Elo na poziomie 3500. czy 4000. Widzę to jako inną przyszłość matematyki...

Nie chciałbym wskazywać palcem na matematyków, ponieważ jest wiele zawodów, które mogą być zagrożone przez AI, powiedzmy prawnicy, dziennikarze, księgowi. Co pan o tym myśli? Dlaczego ta nowa technologia jest dla nas teraz nie źródłem nadziei, lecz raczej powodem do niepokoju o naszą przyszłość? Porozmawiamy później o przyszłości ludzkości, ale o naszej osobistej przyszłości. Dlaczego tak jest? 

Myślę, że to dobrze, że przechodzimy poza matematykę, bo matematyka, mimo swojej formalnej struktury, ma jedną dużą różnicę w porównaniu z wieloma dziedzinami, które pan wymienił, jak rachunkowość, prawo czy medycyna. Mianowicie, jeśli w matematyce się mylisz, nie ma realnych konsekwencji. Jedyną konsekwencją może być trochę zażenowania i tyle. Ale w innych dziedzinach to jest niemal dosłownie kwestia życia i śmierci. Jeśli medycyna się myli, komuś może to poważnie zaszkodzić albo nawet zagrożone może być czyjeś życie. W mniejszym stopniu dotyczy to też rachunkowości i prawa. 

Inżynieria też. 

Absolutnie. Tu musimy stawiać dużo trudniejsze pytania i być dużo mniej wyrozumiali wobec błędów AI. Z tego powodu, jak się przekonaliśmy zarówno w środowisku badawczym w USA, jak i wśród inwestorów, aby AI została w pełni przyjęta, musi działać na poziomie bardzo niskiego błędu, a to oczekiwanie jeszcze znacznie przewyższa to, co jest dostępne dzisiaj. Jeśli jesteś w sytuacji życia i śmierci i w głębi duszy myślisz: "No cóż, jest maleńka szansa, że to może mnie zabić", to jest niemal jak gra na odwróconej loterii. I być może to po prostu ludzka natura, to że ludzie nie przyjmują czegoś, gdy istnieje choćby minimalna szansa błędu. To będzie z jednej strony trwały i realny niepokój po stronie konsumentów, odbiorców tej technologii. Z kolei po stronie tych, którzy oferują usługi, jak księgowi, lekarze, prawnicy, to jest w pewnym sensie kolejna faza rewolucji przemysłowej. Wszystkie poprzednie rewolucje przemysłowe polegały tak naprawdę na zastępowaniu pracy, najpierw pracy zwierząt, potem pracy ludzkiej, a potem coraz bardziej zaawansowanych umiejętności ludzkich. Teraz wiele zawodów, które uważały się pod tym względem za nietykalne, jak wymagające wyuczonej wiedzy prawo czy medycyna, stało się bardzo podatnych na innowacje. To zachwiało ludzką pewnością siebie, czy mogą nadal mieć tę wyjątkową wartość w społeczeństwie. To jest reakcja zgodna z ludzką naturą.

Czy ten proces jest nieunikniony? Czy idziemy ścieżką, która zmieni wszystko i nie możemy jej powstrzymać, nie możemy zmienić kierunku, po prostu idziemy w tym samym kierunku, gdzie AI będzie miało coraz większy wpływ na nasze życie?

Myślę, że można to rozpatrywać z perspektywy krótkoterminowej i długoterminowej. Jest takie dobre spostrzeżenie, że w krótkim terminie przeceniamy wpływ technologii, a w długim terminie go nie doceniamy. Teraz, gdy AI jest w takim stanie pewnej euforii, są zastosowania dobrze ugruntowane i udokumentowane, które można uznać za rozsądne. Są też inne, które są bardziej ryzykowne i mniej prawdopodobne, ale warte zbadania. W krótkim terminie zobaczymy wyraźne rozdzielenie zwycięzców i przegranych. W długim terminie będzie ciekawie, bo nigdy nie było wielkiej zmiany technologicznej, która nie pociągałaby za sobą wielkiej transformacji społecznej. Rewolucja przemysłowa w XIX wieku zmieniła nie tylko technologię, ale i organizację społeczeństw, geografię miast, relacje społeczne, obyczaje i kulturę. Wchodząc w tę erę, najtrudniej zawsze oczywiście przewidzieć przyszłość, ale spodziewam się, że transformacje społeczne wykraczające poza techniczne będą się pojawiać, i stąd biorą się niepokoje.

Rozmawialiśmy o dwóch obszarach, które są stresujące: praca i to, że ludzie przestają się rozwijać, przestają się uczyć, a ich umiejętności, pamięć i inne zdolności nie rosną, a wręcz powiedziałbym, że maleją. Czy jeszcze są jakieś punkty, w których powinniśmy się martwić?

Tak, bardzo. Martwię się zjawiskiem określanym jako "gnicie mózgu". Mogę powiedzieć, że mam szczęście, że urodziłem się w czasach, gdy nie było AI i wszystko przychodziło nam trudniej, we wszystko trzeba było wkładać więcej wysiłku. Koszt zdobywania wiedzy był tak wysoki, że proces zrozumienia był bardzo różnorodny, żeby nauczyć się czegoś, trzeba było nauczyć się wielu innych rzeczy, bo nigdy nie wiedziało się, co jest najefektywniejszą drogą do rozwiązania problemu. Trzeba było często nauczyć się więcej niż minimum. 

Problem z AI jest taki, że zabrało tę konieczność utrzymania różnorodności wiedzy, bo koszt wiedzy jest zbyt niski. Podam dwa przykłady, gdzie to może być szczególnie szkodliwe: cyberbezpieczeństwo i fizyka. W cyberbezpieczeństwie dobry specjalista to ktoś, kto rozumie, jak działa zbiór zabezpieczeń, od najniższych warstw fizycznych po oprogramowanie. Trzeba rozumieć, jak działa komputer, dopiero potem oprogramowanie. Dzięki temu rozumieć, jak można tym manipulować i łamać. Aby zdobyć tę wiedzę, trzeba przejść przez trudną drogę, ucząc się wielu rzeczy, które może nie były potrzebne, ale trzeba było przez nie przejść, bo nie wiedziało się, co potem będzie konieczne. Teraz, dzięki automatycznym narzędziom do obrony cybernetycznej, można pominąć wiele tych kroków. Ale przez to nie będziemy mieli ludzi, którzy głęboko to cyberbezpieczeństwo rozumieją. I to nas będzie kosztowało. W fizyce jest podobnie. Wielkie przełomy wynikają z posiadania odrobiny dodatkowej wiedzy poza tym, co bezpośrednio potrzebne do rozwiązania problemu. Jak mówił Einstein: "Do rozwiązania problemu potrzebujesz wyższego wymiaru myślenia, niż do postawienia problemu". AI obniżając koszt wiedzy tak bardzo, stwarza ryzyko, że nowa generacja fizyków nie zdobędzie tej różnorodnej wiedzy, co może zmienić naturę kreatywności. Czy na lepsze, czy na gorsze, nie wiem, ale jest ryzyko, że na gorsze, jeśli zostaniemy pozbawieni tej istoty innowacji.

Można powiedzieć, że AI nie ma teraz dobrej prasy. Pojawił się artykuł Ronana Farrowa o CEO OpenAI, Samie Altmanie, są niepokojące teksty o firmie Anthropic i systemie Claude. O tym, co potrafi i czy na pewno znamy jego możliwości. Dlaczego tak jest? Dlaczego stres, a nie nadzieja, jest teraz najważniejszy? Dlaczego jesteśmy w sytuacji, gdy różne firmy walczą o prymat i nikt nie chce się zatrzymać, nikt nie chce zachować ostrożności, wszyscy idą na pełen gaz? To nadal moje pytanie o nieuchronność tego procesu. Czy jest sposób na uniknięcie problemów, czy po prostu jesteśmy na tej ścieżce i musimy zobaczyć, dokąd nas zaprowadzi?

To świetne pytanie, bo dotyka czegoś głębszego, co jest bardzo istotne dla relacji między Polską a USA, a także Polską a światem. Mamy technologię i wszyscy jesteśmy tutaj interesariuszami, czy jesteśmy inżynierami AI, CEO czy zwykłymi ludźmi. Wszystkich nas to dotyka. Czy nie powinniśmy mieć prawa do wypowiedzenia się, jak ta technologia jest rozwijana, skoro wpłynie nie tylko na moje życie, ale na życie moich dzieci i wnuków? Moim zdaniem są tu dwie ważne rzeczy. Po pierwsze, AI to globalna gra, nie tylko gra jednego kraju. Firmy, które wymieniłeś, są amerykańskie, ale USA nie są jedynym krajem rozwijającym AI. Po drugie, USA mają system polityczny, a inne kraje liderujące w AI mają inne systemy polityczne. To ważne, bo jeśli amerykański elektorat czuje, że firmy A, B i C robią coś dobrego lub złego, może to wyrazić w systemie politycznym, który musi brać pod uwagę ich preferencje. To nie jest idealne, ale jest jakaś odpowiedzialność przez urnę wyborczą. Inne kraje, których tożsamość jest oczywista, nie mają takiej odpowiedzialności. Ten kontrast wartości politycznych będzie ważniejszy niż kiedykolwiek. AI dotyka kwestii życia i śmierci, nie tylko dosłownie, ale też w sensie figuratywnym dla narodów, ich gospodarek, innowacji, kultury, praw człowieka. Jeśli zależy nam na przyszłości, w której twoje wartości będą miały wpływ na rozwój technologii, warto, aby kraje i kultury, które tworzą AI w sposób politycznie odpowiedzialny, były zwycięzcami na rynku. To jedyny sposób, by uwzględnić interesy wszystkich stron w przyszłości.

Chciałem zapytać o możliwą zmianę równowagi na świecie związaną z AI, ale czuję, że właśnie pan na to odpowiedział.

Tak. Możemy dodać, że cenię w amerykańskim sektorze technologicznym, że oprócz formalnych praw chroniących jednostkę, zdrowie, finanse i inne dane, jest głębszy duch ochrony i szacunku dla jednostki, wykraczający poza prawo i rząd. Pracując przez wiele lat w rządzie, przemyśle i nauce, miałem kontakty z firmami na czele etycznych debat o AI. Przykład: w USA istnieje dojrzały przemysł danych osobowych, który zbiera tysiące zmiennych o przeciętnym człowieku, co kupuje, gdzie jeździ na wakacje, jakie ma hobby itd. Jak łatwo sobie wyobrazić, są podmioty, które chciałyby te dane wykorzystywać w sposób nieetyczny lub co najmniej wątpliwy. I to, co mogłem obserwować pokazało mi, że liderzy tych branż, nawet gdy prawo ich nie ograniczało, odmawiali sprzedaży niektórych danych. To są największe firmy, których nie mogę wymienić. Jeśli chcesz budować swój krajowy ekosystem technologiczny z USA, ma to dwie zalety: po pierwsze, transparentne prawo, które możesz liczyć, i po drugie, głęboką kulturę szacunku dla praw jednostki. To jest wpisane w historię USA, Konstytucję, Kartę Praw i kolejne precedensy prawne, i jest to kultura. To pytanie, z którym będą musiały się zmierzyć wszystkie 190 krajów świata, bo masz wybór, nie musi to być Ameryka, są inne opcje. Ale jeśli cenisz transparentność i kulturę szacunku dla praw jednostki i prywatności, Ameryka jest najlepszym wyborem. 

Można powiedzieć, że Europa jest po tej samej stronie, ale niestety lub na szczęście, są pewne napięcia między USA a Europą w kwestii danych AI. Dlaczego tak jest? I jak pańskim zdaniem możnaby zbudować mosty między tymi dwoma podejściami do AI

Powiem to jako eksperyment myślowy: gdybyśmy żyli w równoległym wszechświecie, gdzie amerykański ekosystem technologiczny nie był dostępny, wybrałbym europejski bez wahania. I to z wielu powodów, które już wymieniliśmy. Jest głęboka kulturowa bliskość między kulturą amerykańską i europejską, różnice są subtelne, nie fundamentalne. Więcej mostów, a nie mniej, to zawsze jest lepsze. Jak budować mosty? Ameryka wyprzedziła konkurencję w innowacjach dzięki zdrowej kulturze kapitału, ryzyka, chęci szybkiego działania, gotowości do błędów i szybkiej adaptacji, jeśli błędy się pojawią. Europa ma kulturę ostrożności i wstrzemięźliwości tam, gdzie jest to potrzebne, np. w kwestiach życia i śmierci, gdzie nie chcesz działać szybko i łamać wszystkiego. To odzwierciedla europejskie wartości, np. w ogólnym prawie o ochronie danych. Systemy USA i Europy nie są identyczne, filozofie nie są takie same, ale zgadzają się w podstawowych kwestiach i mogą się wzajemnie ulepszać przez dialog i budowanie mostów.

W Europie można powiedzieć, że nie boimy się tak bardzo, co zrobi rząd USA, ale czasem boimy się, że rząd nie kontroluje wielkich firm, bo znamy kulturę przedsiębiorczości w USA. Wspominałem choćby o ostatnich prasowych doniesieniach na temat firm OpenAI czy Anthropic. Nie mamy pewności, czy te firmy nie robią czegoś, czego nawet rząd w Waszyngtonie nie będzie w stanie powstrzymać. To może być problem dla nas wszystkich. Czy istnieje jakiś mechanizm powstrzymania tych firm, które zaczynały czasem jako pro bono, nawet non-profit, a teraz myślą o zysku i większym zysku? 

Mamy bardzo współczesny przykład zaledwie sprzed kilku tygodni, OpenClaw. Wielu słuchaczy zna to, a dla tych, którzy nie znają, OpenClaw to nakładka, którą można dodać do dowolnego dużego modelu językowego, np. Claude lub innego, dzięki której masz asystenta języka naturalnego do wykonywania poleceń na systemie operacyjnym komputera. Możesz powiedzieć: "Chcę porozmawiać z tą osobą, zostawić jej wiadomość głosową, zarezerwować restaurację, zmienić ustawienia komputera" i zrobi to. Co jest zdumiewające, po pozytywnej stronie, to ogromna pomysłowość w wykonywaniu tych zadań. System potrafi pobierać biblioteki, załączniki, komponenty i realizować bardzo złożone zadania, które wcześniej wymagały człowieka rozumiejącego całość. Jego twórca był wielokrotnie zaskoczony, bo system robił rzeczy, których się nie spodziewał. To pozytywna strona. Ale jest też ryzyko. Po wypuszczeniu tego narzędzia pojawiły się nowe sposoby złośliwego działania i potencjalnych cyberataków. To najlepszy przykład zarówno zalet, jak i wad szybkiego działania. Z jednej strony to ogromny skok innowacji, z drugiej strony szybkie działanie oznacza, że bezpieczeństwo systemu nagle znajduje się w rękach szerokiego grona użytkowników, z różnym poziomem wiedzy o zabezpieczeniach. To faktycznie powoduje, że ryzyko dla nas wszystkich jest trudne do przewidzenia i to jest rzeczywistość.

Myśląc o agentowym AI, myślimy o łatwym i szybkim załatwianiu spraw. Ale nowe badania pokazują, że łatwo można tam umieścić złośliwe instrukcje, kod, o którym nie wiemy, a który może skierować te narzędzia AI na ścieżki, których byśmy nie chcieli. Jak możemy temu zapobiec, jeśli istnieje coś ledwo zauważalnego, co może zmienić sposób myślenia i działania AI? 

Tak, jest cały rozwijający się obszar badań nad atakami typu "prompt injection attacks", czyli nakłaniania systemu do zrobienia czegoś złośliwego tylko na podstawie zwykłego tekstu w polu wejściowym. To bardzo ważna dziedzina badań. Na głębszym, filozoficznym poziomie, to bardzo odpowiednia rozmowa tutaj w Polsce, bo niektóre z tych problemów zabezpieczeń sięgają fundamentów logiki matematycznej stworzonej w Warszawie i we Lwowie w latach 30. i 40. XX wieku. Odkryto tam, że podobnie jak w fizyce istnieją ograniczenia w pomiarze położenia i pędu, tak w matematyce i logice istnieją zdania nierozstrzygalne, co do których nie można ani udowodnić prawdziwości, ani fałszu. To abstrakcyjne, ale ma bezpośrednie znaczenie, bo każdy język programowania jest systemem matematycznym zdolnym do arytmetyki. Jeśli chcesz udowodnić, że system jest odporny na ataki wstrzykiwania promptów czy SQL, to wiemy z matematyki, że niektóre z tych pytań są nierozstrzygalne. To może być niepokojąca wizja przyszłości, bo nie chodzi o to, że inżynierowie nie są wystarczająco dobrzy czy nie znajdują problemów, ale niektóre pytania po prostu nie mają odpowiedzi. Będziemy więc mieć urządzenia z wrodzonymi podatnościami i niepewnościami, których nigdy w pełni nie wyeliminujemy. 

Mówił pan wcześniej, że nie mamy innych opcji. Możemy mieć system z jednej strony oceanu albo z drugiej strony oceanu. Czy przekonuje pan, że jeśli chcemy mieć coś do powiedzenia o tych systemach, powinniśmy trzymać je w krajach, które mają podobny poziom wartości i standardów? A jeśli te kraje przestaną nad tym pracować, system przyjdzie z innej strony?

Żyjemy w ciekawym momencie historii. Gdybyśmy rozmawiali 25 lat temu, prawie zawsze amerykańska technologia była lepsza pod względem ceny, jakości, wartości itd. Dziś różnica jest mniejsza, ale jeśli porównasz USA z globalnymi konkurentami, zwłaszcza tymi o innych systemach politycznych i wartościach, to przewaga USA nadal jest, ale mniejsza niż kiedyś. Dla każdego, kto decyduje, skąd kupić technologię, ważne jest, by rozważyć wartości kulturowe i prawne, które są kompatybilne z jego wartościami. Widzimy tu wiele nierozwiązanych pytań etycznych, które prowadzą do pytań prawnych i legislacyjnych. Jeśli wybierzesz USA i założysz, że ich system polityczny pozostanie taki jak przez ostatnie 200 lat, masz demokratyczną ścieżkę rozwiązywania tych problemów. Jeśli wybierzesz inny system, mniej przejrzysty i bez demokratycznej odpowiedzialności, będziesz zdany na decyzje tamtej władzy. Można czasem mówić o oświeconym autorytaryzmie, ale historia pokazuje, że autorytaryzm rzadko pozostaje oświecony na długo. Nie próbuję odpowiadać na każde pytanie, bo jest ich za dużo i nie da się ich przewidzieć, ale można przewidzieć, jak różne systemy będą rozwiązywać te pytania. I tu jest wyraźna różnica.

Zapytam o analogię do amerykańskich telekomów, firm telefonicznych. Był moment w historii, gdy podzielono je na części, by mieć konkurencję. Czy w Ameryce jest pomysł, by może wymusić podział niektórych wielkich firm technologicznych? Czy to w ogóle nie jest rozważane?

To świetne pytanie, bo to jedno z najsubtelniejszych i kluczowych pytań ekonomii. Są plusy i minusy obu modeli. Plus dużych, dominujących graczy jest taki, że pewne rzeczy można osiągnąć dzięki efektom skali, których nie da się osiągnąć przy mniejszej skali. Jeśli chcesz budować bardzo duże systemy, rynek nie zawsze pozwoli na 20 graczy, czasem tylko na 5. W niektórych branżach tak jest. Gdy jest za dużo graczy, pojawia się chaos i nikt nie zarabia wystarczająco, by przetrwać, co szkodzi konsumentom. Z drugiej strony konkurencja sprzyja innowacjom i zapobiega sytuacjom, gdzie zarząd chce utrzymać status quo. Historia pokazuje wiele takich przykładów. Pytanie polityczne: czy chcesz chaosu i upadku części firm, po czym przyjdzie zagraniczny konkurent z silną polityką przemysłową i zdominuje rynek? Czy jednak wolisz mniejszą liczbę dominujących firm, które mogą płacić koszt innowacji i innych czynników, ale będą lepiej konkurować z geopolitycznymi rywalami, których dominacja na naszym rynku mogłaby nie być w naszym interesie? Nie mam dobrej odpowiedzi na pańskie pytanie, ale tak bym to rozważał, oceniając plusy i minusy. 

Jest jeszcze inny punkt widzenia i pytanie, czy chcemy globalnego czy lokalnego systemu, który byłby bezpieczniejszy z punktu widzenia różnych sytuacji na świecie, które kilka lat temu były trudne do przewidzenia, a teraz się z nimi mierzymy. Czy powinniśmy mieć wszystkie dane w jednej chmurze, czy może trzymać dane w różnych lokalizacjach? Co pan myśli? 

Są dane o różnym poziomie wagi i "świętości". Dane zdrowotne to najbardziej wrażliwe dane na świecie, dane finansowe osobiste są bardzo blisko tego poziomu. Są kwestie suwerenności danych w ustawodawstwie narodowym. Uważam, że to uczciwe wymaganie, by suwerenność danych była uwzględniona. Rząd istnieje po to, by zapewnić pokojowe, uporządkowane i sprawiedliwe środki odszkodowania, gdy jest szkoda czy naruszenie. Jeśli jako obywatel Polski doświadczę nadużycia moich danych, ale nie mam drogi prawnej do odszkodowania, bo granice suwerenności danych zostały zmienione tak, że droga do odszkodowania prowadzi przez jurysdykcje poza moim zasięgiem, to jest problem. Pierwsza zasada: czy przeciętny obywatel może znaleźć drogę do odszkodowania? Jeśli nie, to prawo jest niewystarczające. 

Zapytam o kolejny problem między Ameryką a Europą - podatki. Sposób opodatkowania wielkich firm technologicznych. W Europie musimy o tym rozmawiać, a Waszyngton oczywiście tego nie chce. Jak pan to widzi? Czy jest jakiś poziom, na którym obie strony mogą się porozumieć? 

Mam technokratyczne spojrzenie, może z powodu mojego technicznego wykształcenia. Podatki to sposób na podniesienie ceny czegoś tak, że jeśli chcesz mniej, opodatkowujesz więcej, jeśli chcesz więcej, mniej. To tautologia prawa podaży i popytu. To prawo działa na wszystko, co jest wyceniane. Zawsze jest tak, że wyższa cena oznacza mniejsze zapotrzebowanie i odwrotnie. Myślę, że sposób rozumowania jest taki: żyjemy w świecie, gdzie z 190 krajów jest kilka, które produkują wszystkie elementy technologii od sprzętu po oprogramowanie. Wszystko co jest pośrodku. Jest ich ograniczona liczba. Pytanie: który wybierasz? Które dobra pochodzi z kultury i środowiska prawnego kompatybilnego z twoimi wartościami? To pierwsze pytanie. Drugie: czy chcesz tego więcej, czy mniej? Zmieniając strukturę cenową, rynek lub państwo wyraża swoje preferencje: chcemy więcej lub mniej. To jest kwestia demokratycznej decyzji narodowej. Interesujące jest porównanie cen względnych, nie absolutnych. Jeśli podatek jest taki sam na technologię z USA i konkurentów, to jedno pytanie. Ale jeśli jest preferencyjne traktowanie, nie tylko podatkami, ale regulacjami i innymi czynnikami, które zmieniają względną cenę, to rynek lub państwo mówi: wolimy to, a nie tamto. Tak bym to rozumiał. 

Na chwilę odejdę od polityki i zapytam o coś, na czym pan się bardzo dobrze zna - komputery kwantowe. Jak duża będzie różnica dla cyberbezpieczeństwa, gdy komputery kwantowe staną się rzeczywistością?

Zacznę od tego, że gdy spędzi się wiele lat w danym temacie, nigdy nie jest się całkowicie obiektywny. Mam do tej technologii szczególną sympatię, bo byłem badaczem. Powiem jednak, że w porównaniu z AI, które ma natychmiastowe skutki w przemyśle i kulturze, komputery kwantowe są jeszcze trochę odległe. To znacznie trudniejszy problem techniczny. Mam inne spojrzenie na komputery kwantowe niż większość dyskusji naukowych i kulturowych. 

Problem komputerów kwantowych polega na walce z termodynamiką. Wszechświat jest kwantowy, ale z powodu interakcji ciał i ich zachowania, większość czasu obserwujemy rzeczywistość klasyczną. Moja ręka to w większości pusta przestrzeń, podobnie jak ten stół. Teoretycznie jest szansa, że ręka przejdzie przez stół, ale musiałbym to zrobić około 10^127 razy, by to się zdarzyło. To jest natura mechaniki kwantowej. A zjawiska termodynamiczne, gdzie mamy przejście ze świata kwantowego na klasyczny, dają nam rzeczywistość, w której żyjemy. Budując komputery kwantowe, walczymy z tym w fundamentalny sposób, jak sprawić, by natura zachowywała się kwantowo na tyle długo i z taką dokładnością, by uzyskać użyteczne obliczenia. Opisałem to w sposób ezoteryczny, by podkreślić, jak trudny to problem i jak fundamentalną walkę prowadzimy z naturą, by spełnić to marzenie. Jeśli tak to postawimy, to lepiej rozumiemy wyzwania. Czy powinniśmy kontynuować inwestycje narodowe i prywatne? Tak, zwłaszcza narodowe, bo to długoterminowe inwestycje, które mogą się opłacić. Czy spodziewam się, że to zmieni cyberbezpieczeństwo lub inne dziedziny w najbliższym czasie? Nie, żaden poważny badacz nie zrobi takich silnych prognoz.

Na koniec chciałbym zapytać o nasze życie prywatne. Czego powinniśmy uczyć nasze dzieci i siebie, by dobrze funkcjonować w świecie AI? Jakich umiejętności potrzebujemy i których nie powinniśmy stracić, by być szczęśliwymi w świecie AI?

Jedną z pięknych rzeczy w naszej epoce, jeśli obietnice AI się spełnią, jest analogia do samochodów, które stały się masowym środkiem transportu. Ja jeżdżę samochodem, przypuszczam, że pan też. Piękno samochodów polega na tym, że choć nie rozumiem dokładnie, jak działają - wiem trochę, ale nie potrafię ich naprawić ani zmienić i nie chcę tego robić - to nie przeszkadza mi korzystać z ich wartości. Tak samo będzie z AI. AI obniży barierę wejścia do wielu dziedzin, które dziś mają wysokie wymagania, np. programowanie, tworzenie aplikacji, rysowanie obrazów. Ja nie mam talentu artystycznego, ale mogę poprosić AI o obraz i zrobi to precyzyjnie, zależnie od jakości moich instrukcji. AI potrafi pisać teksty i wiele innych rzeczy. Obniżając barierę, ważniejsze będzie uczyć dzieci, co warto robić. Co jest warte robienia? Niektóre rzeczy są warte, bo są piękne, inne, bo produktywne, a jeszcze inne, bo dobre. Piękno to klasyczna edukacja, estetyka, literatura, sztuka, filozofia. To one uczą, czym jest piękno. Piękno nie jest spontaniczne ani naturalne, musi być rozwijane. To ważna część edukacji. Trzeba uczyć dzieci, co jest wartościowe ekonomicznie, bo rynek to ludzie, dostawcy i odbiorcy wartości. Nikt nie zrozumie lepiej niż ludzie, co jest ważne dla ludzi. Przyszłość człowieka biznesmena i przedsiębiorcy nie jest zagrożona, tylko wzmocniona. Na koniec są rzeczy, które robimy, bo są dobre, to kwestia moralna. To ważniejsze niż kiedykolwiek, bo wszyscy dostaną ogromną moc, a z nią musi iść ogromna odpowiedzialność i zdolność do refleksji moralnej. Czy tylko dlatego, że mogę coś zrobić, powinienem to zrobić? To pytanie jest kluczowe. Dlatego musimy nauczyć dzieci, jak myśleć etycznie o tym, co powinno być zrobione, a nie tylko o tym, co można zrobić. Bo to, co można zrobić, będzie łatwiejsze niż kiedykolwiek, a moc będzie ogromna. I to moralne podejście będzie ważniejsze niż kiedykolwiek.