"Rozumiem obawy, ale jeśli chodzi o rozwój i znaczenie sztucznej inteligencji jestem ostrożnym optymistą" - mówi RMF FM prof. Terry Sejnowski. Jeden z pionierów technik uczenia maszynowego przekonuje, że w miarę postępu i rozwoju AI będziemy w stanie ją kontrolować. W rozmowie z Grzegorzem Jasińskim wybitny neurobiolog z Salk Institute for Biological Studies i University of California w San Diego uspokaja, że AI nie odbierze nam pracy, a sprawi, że nasza praca się zmieni, a my staniemy się mądrzejsi i bardziej produktywni. Przekonuje, że wykorzystania sztucznej inteligencji, jak każdego nowego narzędzia trzeba się po prostu nauczyć.
Prof. Terry Sejnowski przy badaniach sztucznych sieci neuronowych blisko współpracował z laureatami Nagrody Nobla Johnem Hopfieldem i Geoffreyem Hintonem, miał udział przy tworzeniu podstaw uczenia maszynowego, ale potem skoncentrował się na badaniach mózgu. Wraz z Barbarą Oakley, stworzył najpopularniejszy na świecie internetowy kurs uczenia się: "Learning How To Learn: Powerful mental tools to help you master tough subjects". W Polsce ukazała się jego książka "Deep Learning. Głęboka Rewolucja", opisująca historię i perspektywy rozwoju sztucznej inteligencji. Był gościem tegorocznego Copernicus Festival w Krakowie.
Grzegorz Jasiński: Na początek chciałbym panu pogratulować, ponieważ został pan wybrany do Royal Society oraz American Philosophical Society, więc to wielka chwila.
Terry Sejnowski: To zbieg okoliczności, że zostałem wybrany i do najstarszego na świecie towarzystwa naukowego, Royal Society, i najstarszego amerykańskiego towarzystwa naukowego, które założył Benjamin Franklin.
Jaki jest pana komentarz na to, że stało się to w tym samym czasie?
Cóż, myślę, że dzieje się coś ważnego w dzisiejszym świecie nauki. Została ona naprawdę przekształcona przez sztuczną inteligencję. Jak zapewne wiesz, Nagroda Nobla w dziedzinie fizyki została przyznana za sztuczną inteligencję, John Hopfield, jeden z promotorów mojego doktoratu oraz Geoffrey Hinton, z którym współpracowałem w latach 80. nad algorytmami uczenia dla sieci neuronowych, otrzymali tę nagrodę. Nagroda Nobla z chemii została przyznana za badania nad zwijaniem białek z wykorzystaniem AI. Myślę, że było to uznanie, że nauka rzeczywiście korzysta teraz na tym, co dzieje się obecnie w informatyce.
Muszę zapytać o to. Czy był pan rozczarowany, że Geoffrey Hinton dostał Nagrodę Nobla, a pan nie?
Wręcz przeciwnie, byłem zachwycony, że to zostało docenione. Jeffrey zasługuje na to, podobnie jak John, mój były promotor, który jako pierwszy stworzył bardzo zaawansowaną sieć rekurencyjną nazwaną siecią Hopfielda. Jeff i ja rozwinęliśmy to, aby pomóc opracować algorytm uczenia dla sieci wielowarstwowych. Jeff kontynuował tę pracę. Opracował inny algorytm zwany propagacją wsteczną, który jest dziś używany w niemal wszystkich dużych sieciach głębokiego uczenia. Ja zająłem się neurobiologią. Moim celem było zrozumienie, jak działa mózg, co wymaga zupełnie innego zestawu umiejętności.
Czy uważa pan, że lepsze poznanie działania mózgu może dać możliwość lepszego zrozumienia, jak działa sztuczna inteligencja? Bo niektórzy mówią, że to prawie jak czarna skrzynka. Coś robi, ale nie wiemy, co dokładnie. A pan powinien wiedzieć. To pan to zaczął...
Jednym z powodów, dla których jestem tak bardzo podekscytowany tymi nowymi osiągnięciami, jest to, że równocześnie z rewolucją w sztucznej inteligencji nastąpiła podobna rewolucja w rozumieniu, jak w ogólnej skali zorganizowany jest mózg. Od dawna wiemy wiele na temat różnych części mózgu, ale nie wiedzieliśmy, jak one ze sobą współdziałają, jak tworzą bardzo złożone stany mózgu, które nazywamy myśleniem. Wiemy dużo o tym, jak działa układ ruchowy, układy czuciowe, ale to, co jest pomiędzy nimi, to jest tajemnica. Teraz powstała nowa dziedzina zwana neuroAI, która jest konwergencją tych głębokich sieci uczących się, które są bardzo uproszczonymi wersjami tego, co widzimy w mózgu pod względem neuronów, połączeń i uczenia się. Dzięki nowym technikom, które pozwalają na jednoczesne rejestrowanie setek tysięcy neuronów, możemy zacząć tu działać w obie strony, w miarę jak uczymy się więcej o mózgu, to będzie wspomagało kolejne generacje AI i na odwrót.
W tej chwili, czy jest pan bardziej dumny z wkładu w początki sztucznej inteligencji, czy trochę obawia się pan, co się potem wydarzy? Niektórzy mówią, że sztuczna inteligencja może być dla nas niebezpieczna. Jakie jest pana zdanie? Czy ma pan wątpliwości co do tego, co się wydarzy?
Zgadzam się, że sztuczna inteligencja może być niebezpieczna, ale tak samo energia jądrowa potencjalnie może być bardzo niebezpieczna. Podobnie techniki genetyczne do tworzenia nowych wirusów. Wszystkie te technologie mają potencjał wielkiego zniszczenia. Ale my opracowaliśmy i możemy kontrolować wszystkie te nowe technologie. AI jest tak nowa, że jeszcze nie została odpowiednio uregulowana. Nie znamy jeszcze konsekwencji. Niepożądane skutki często są czymś, czego nawet nie wyobrażasz sobie, dopóki nie zaczniesz korzystać z technologii. Jestem ostrożnym optymistą, że w miarę postępu i rozwoju będziemy w stanie ją kontrolować. Wiem, że są osoby bardzo zaniepokojone i w sumie cieszę się, że się martwią, bo ktoś powinien się martwić i przygotować się, na wszelki wypadek.
Czy uważa pan, że możemy przejść przez jakiś próg w sztucznej inteligencji, po którym trudno będzie wrócić i przywrócić świat do stanu sprzed niej?
Możliwe. Ale jeśli spojrzeć na wcześniejsze technologie, prawda jest taka, że nie jesteśmy dobrzy w przewidywaniu przyszłości. Pozwól, że zadam panu pytanie. W latach 90. korzystałem z internetu, aby pracować z Jeffem Hintonem. Wtedy nazywał się ARPANET, nie był publiczny. Wysyłaliśmy maile i artykuły. Ale czy mógłbyś sobie wyobrazić, jaki wpływ internet będzie miał na każdy aspekt naszego życia?
Oczywiście, że nie.
Myślę, że to samo będzie dotyczyć AI. Innymi słowy, naprawdę nie wiemy, jakie będą ostateczne konsekwencje i gdy się pojawią, prawdopodobnie się zdziwimy.
Będziemy pozytywnie zaskoczeni?
Myślę, że internet pokazał, że są zarówno pozytywne, jak i negatywne niespodzianki. I to brzmi teraz ironiczne, że twórcy internetu myśleli, że stworzą otwarte forum, gdzie każdy może wyrazić swoje pomysły. Brzmiało to świetnie. Oczywiście oznaczało to, że nawet złe podmioty mogą wyrażać swoje idee, co nie jest takie dobre. Więc każda technologia, jak każdy kij, ma dwa końce. Musimy nauczyć się, jak korzystać z technologii. Jesteśmy dopiero na samym początku. To zajmie dziesięciolecia, wiele dziesięcioleci i kto wie, dokąd nas to zaprowadzi.
Czy uważa pan, że pojawienie się sztucznej inteligencji było po prostu nieuniknione, że miało się to wydarzyć pewnego dnia i nie dało się tego powstrzymać, jak inne przełomy, na przykład elektryczność? Może po prostu tak miało być. Pewnego dnia będziemy musieli żyć z AI wokół nas...
To oczywiście coś, co na temat przyszłości czytasz i widzisz w science-fiction. Ale rzeczywistość jest taka, że to co teraz się dzieje jest nawet jeszcze ciekawsze niż science-fiction. To naprawdę zmienia to, jak myślimy o świecie i o nas samych. Nie przewidziałem tego, tak na marginesie, w latach 80., kiedy opracowywaliśmy te algorytmy uczenia. Nasze komputery wtedy były bardzo słabe, miały mniej mocy obliczeniowej niż teraz zegarek. Wszystkie algorytmy używane dzisiaj zostały wynalezione w latach 80., czyli 40 lat temu. Ale nie wiedzieliśmy, jak to się będzie skalować, a w inżynierii to duża sprawa, możesz zbudować małe urządzenie, które działa, ale czy da się je powiększyć i uczynić potężniejszym? Nie wiedzieliśmy, czy te sieci neuronowe się skalują, ile mocy obliczeniowej będzie potrzebne. Teraz już wiemy. I co ciekawe, gdy osiągasz pewien próg mocy obliczeniowej, pojawiają się nowe możliwości. To jest przejście, wcześniej nie da się rozwiązać problemu, na przykład dotyczący widzenia, a gdy przekroczysz ten próg, problem jest rozwiązany. Teraz osiągamy te progi i widzimy, że to się dzieje. To ekscytujące, bo pojawia się pytanie gdzie będzie następny próg? Myślę, że będzie to coś, w czym obecne duże modele językowe nie są dobre, czyli samogenerująca się aktywność. Kiedy przerywasz dialog, one po prostu się zatrzymują, nie mają wewnętrznej aktywności. Natomiast kiedy my siadamy i zaczynamy myśleć o tym, co planujemy zrobić lub jak możemy rozwiązać problem, to jest aktywność wewnętrzna, nie reakcja na otoczenie, ale właśnie wewnętrzna aktywność. Te duże modele językowe nie mają takiej wewnętrznej aktywności. Myślę, że to będzie następny próg, osiągnięcie momentu, gdy to się pojawi. Nie wiem, ile to potrwa.
Może lepiej byłoby zostawić to tak i nie dawać im tej dodatkowej możliwości samodzielnego myślenia?
Pozwoli pan, że zacytuję J. Roberta Oppenheimera, który był dyrektorem Projektu Manhattan i fizykiem, który kierował postępem technologicznym, który był groźny, a potem miał wątpliwości co do mądrości stworzenia bomb jądrowych. Powiedział, że problem techniczny, wyzwanie było tak nieodparte, że nigdy nie myśleli z wyprzedzeniem, co się stanie, jeśli się uda, jakie będą konsekwencje. Ludzie nie są dobrzy w wyobrażaniu sobie konsekwencji, skupiają się na tym, gdzie są teraz i dokąd zmierzają w najbliższej przyszłości. Przewidywanie jest zawsze trudne. Nie chcesz kontrolować czegoś w taki sposób, że uniemożliwi to postęp. Na przykład technologia rekombinowanego DNA została opracowana w latach 60. Kiedy to się stało, było jasne, że mamy moc tworzenia nowych wirusów, które mogą zabić cały świat. Biolodzy sami się uregulowali, kontrolowali, stworzyli pomieszczenia izolacyjne, które miały zapobiec rozprzestrzenianiu się czegokolwiek poza laboratorium. To stało się regułą dla wszystkich przyszłych eksperymentów. To była dobra regulacja - pozwoliła na postęp, ale w bezpieczny sposób. Musimy znaleźć sposób, jak to zrobić dla AI.
Jako neurolog, jak pan przewiduje, jak będzie wyglądać nasze życie ze sztuczną inteligencją z punktu widzenia możliwości i zdolności naszego mózgu?
Już możemy dostrzec przebłyski przyszłości w agentach AI, które są teraz rozwijane. Agent AI to nie tylko "ktoś", z "kim" rozmawiasz, ale to sztuczna inteligencja, która może coś dla ciebie zrobić, na przykład zarezerwować stolik w restauracji lub bilet lotniczy, innymi słowy, JEST twoim agentem. To oznacza, że będziesz z nim w relacji, bo musisz mu ufać, ale też może dać ci więcej informacji, szybko przeszukać wszystkie możliwe opcje i wskazać, które są najlepsze i dlaczego. To będzie jak osobisty asystent. Każdy będzie miał osobistego asystenta. To się stanie. Jeszcze bardziej ekscytująca wizja to możliwe wsparcie dla uczniów. Obecnie w klasach z 20, 40 uczniami nauczycielowi trudno dotrzeć do każdego. Ale jeśli każdy będzie miał własnego agenta AI, który będzie śledził jego postępy i pomagał w nauce, a także w większych problemach, to znacznie poprawi jakość edukacji na świecie, bo każdy, w każdym kraju, nie tylko w krajach rozwiniętych, ale też w Afryce i biedniejszych miejscach, będzie miał takie same możliwości edukacyjne jak my. To jest zdecydowanie najskuteczniejszy sposób nauczania dziecka, indywidualna interakcja z dorosłym, który jest dobrym nauczycielem, zna dziecko i pomaga mu się rozwijać. To właśnie zrobi agent AI dla dziecka.
Ale dla niektórych może to oznaczać utratę pracy, to problem, który może być coraz ważniejszy w nadchodzących latach.
Tak, o tym faktycznie czyta się w prasie i społeczeństwo się tym martwi. To najczęściej zadawane pytanie, które dostaję na wykładach publicznych. Czy stracę pracę? Moja odpowiedź brzmi: nie, nie stracisz pracy, ale twoja praca się zmieni. Ucząc się właściwego korzystania z narzędzi AI, będziesz bardziej produktywny. To już dzieje się w wielu dziedzinach i uczyni cię mądrzejszym. Ale trzeba się tego nauczyć, każde nowe narzędzie wymaga dużo treningu i doświadczenia. Większość ludzi korzystających teraz z AI tego nie ma, więc nie potrafią używać jej właściwie.
Niektórzy mówią, że technologia AI czyni ludzi bardziej równymi, bo dzięki niej można odzyskać coś, co może się utraciło podczas edukacji. Można nie znać innych języków, a teraz można ich używać dzięki AI. Może ta równość to pozytywny znak na nadchodzące lata z AI?
AI podniesie poziom wszystkich łodzi, tak jak woda się podnosi. Niezależnie czy masz małą czy dużą łódź, wszystkie idą w górę. Ci, którzy potrafią dobrze z niej korzystać, skorzystają najbardziej. To nie wyrówna różnic, a może nawet poszerzyć zakres ludzkich możliwości. Co ciekawe, najlepsi w formułowaniu zapytań do ChatGPT nie są naukowcami czy inżynierami, ale absolwenci filologii angielskiej, literatury, którzy mają głęboką znajomość języka i wiedzą, jak formułować pytania, by uzyskać najlepsze odpowiedzi. Mam hipotezę, którą nazywam hipotezą lustra, że ChatGPT bardziej odzwierciedla inteligencję pytającego niż swoją własną inteligencję.
To trochę jak z nami dziennikarzami, niestety, czasem. Ale jako neurolog, co pan myśli o naszym mózgu połączonym z AI? Może nie trzeba już tyle danych pamiętać, można zawsze sprawdzić w smartfonie i wykonać pracę. Kiedyś było trudno, dzwoniłeś do znajomych, nie pamiętałeś numerów telefonów. Teraz jest łatwiej, ale pamięć nie jest tak ćwiczona jak kiedyś. Czy to zmieni nasz mózg i sposób korzystania z niego?
Zdecydowanie. Każda technologia zmienia mózg i to nie jest wyjątek. Już samo korzystanie z wyszukiwarek, na przykład Google, sprawiło, że stałem się w praktyce wszechwiedzący. Nie muszę już chodzić do biblioteki, mogę po prostu wpisać w Google i od razu mam wiele stron z odpowiedzią. To jak mieć mały procesor w mózgu, który odpowiada na pytania. Teraz z AI to poszło dalej, bo nie trzeba już wpisywać słów kluczowych, można zadać pytanie w formie zdania. Nie wiem, czy zauważyłeś, ale Gemini w Google, gdy zadajesz pytanie, zaczyna od krótkiego podsumowania, a potem podaje źródła, dzięki czemu szybciej trafiasz do tego, czego szukasz. To przykład, jak AI już zmienia sposób, w jaki działamy, i zmieni jeszcze więcej.
Jak AI zmieni naukę? Matematykę, fizykę, nauki językowe, archeologię? Jak AI zmieni pracę naukowców, którzy wcześniej musieli mieć świetny pomysł na początku, by coś zbadać, a teraz może ChatGPT da im pomysł?
AI już teraz bardzo pomaga nauce na wiele sposobów. Podam przykład. Nagroda Nobla z chemii w zeszłym roku została przyznana za problem tak trudny, że większość biologów uważała, że nigdy nie zostanie rozwiązany, przewidywanie trójwymiarowej struktury białek na podstawie sekwencji aminokwasów pochodzącej z DNA. To było tak trudne, że obliczenia były praktycznie niemożliwe. Ale teraz dzięki AI, która używa dopasowywania wzorców, co jest innym typem algorytmu, nie tylko biolodzy, ale też wielkie firmy farmaceutyczne mają ogromną przewagę w badaniu możliwych leków, które mogą pomóc ludziom z różnymi schorzeniami i pomóc biologom zrozumieć funkcje różnych mechanizmów komórkowych. To przyspieszyło badania o dziesięciolecia dzięki temu jednemu przełomowi. Jest ich setki, a w mojej książce "ChatGPT i przyszłość AI" wymieniam wiele z nich i ich wpływ w ostatnim rozdziale. W każdej dziedzinie nauki ci, którzy mają teraz duże zbiory danych mogą skorzystać z AI, która potrafi je przyswoić i odpowiadać na pytania.
Jedną z rzeczy, na które liczyliśmy w latach 90. i na początku 2000, gdy zaczynał się internet, była dostępność informacji, że każdy może mieć prawie każdą informację na komputerze, potem laptopie, potem smartfonie. Teraz żyjemy w czasach dezinformacji. Teraz nie wystarczy zdobyć informacje, ale trzeba ją jeszcze przesiać od dezinformacji, fakty od fałszu. Co pan myśli o zdolności naszego mózgu lub AI do rozróżniania, co jest prawdą, a co nie? Co jest tylko symulacją? Jaka jest pana opinia?
Myślę, że internet ujawnił prawdziwy problem - jest znacznie więcej fałszywych informacji niż prawdziwych. Masz rację, oddzielenie prawdy od fałszu okazało się niezwykle trudne. Można by pomyśleć, że to oczywiste, ale pytanie brzmi: kto decyduje, co jest prawdą? Ludzie mają różne przekonania i to właśnie zostało ujawnione. Przez długi czas mieliśmy filtry kontrolowane przez rządy lub gazety, które decydowały, co jest szeroko rozpowszechniane, co ludzie dostają. Niektórzy nazywają to propagandą rządową, inni mówią o stronniczym przedstawianiu opinii różnych stronnictw politycznych, ale prawda jest taka, że to zawsze istniało. Problem zawsze był obecny, tylko teraz jest na widoku i musimy znaleźć sposób, by sobie z tym poradzić w sposób uczciwy, otwarty i bez szkody. Nie mam na to odpowiedzi. Wszystkie duże firmy AI teraz z tym walczą. To naprawdę trudny problem i zawsze istniał, tylko nie byliśmy świadomi, jak poważny jest teraz, gdy każdy ma głos.
Są narzędzia, które dają możliwość tworzenia fałszywych materiałów, zwłaszcza wideo. Kiedyś traktowaliśmy wideo jako dowód czegoś, co naprawdę się wydarzyło. Teraz to może być całkowicie fałszywe i nie mamy jeszcze narzędzi, by sobie z tym poradzić.
To prawda, "widzieć to wierzyć" już nie działa. Masz rację, AI osiągnęła poziom, gdzie jest prawie nie do odróżnienia od prawdziwego wideo z prawdziwego człowieka. Ale to jest tylko ulepszenie fałszerstw, które istniały od zawsze. Malarze tworzyli nowe obrazy "Van Gogha" i próbowali je sprzedać jako oryginały, różne rzeczy można było kupić, na przykład "list" napisany przez Abrahama Lincolna. Technologia się poprawiła, więc teraz można robić rzeczy jeszcze trudniejsze do zweryfikowania. Ale to nie jest nowy problem, tylko powiększony. Zawsze jednak są eksperci, którzy wymyślają, jak przeprowadzać właściwe testy. W firmach zajmujących się AI jest teraz wielu ludzi w różnych działach, którzy pracują nad narzędziami i technikami wykrywania. To problem technologiczny, który da się rozwiązać i wymaga tyle samo wysiłku, co budowa samej technologii. Jesteśmy dopiero na pierwszym etapie testowania nowej technologii i uczenia się, jak z niej korzystać bez tych wszystkich złych skutków. Kiedy internet się pojawił, pamiętam, że dostawało się maile z ofertą miliona dolarów, ale trzeba było podać numer konta bankowego, żeby je otrzymać. Zdziwiłbyś się, ilu ludzi na to się nabrało. Potrzeba było trochę czasu, by ludzie nauczyli się to wykrywać. To samo się stanie z fałszywymi filmami.
Musimy być po prostu sprytniejsi. Ale czy będziemy? Czy nasz mózg dostosuje się tak, że znajdziemy sposób na życie ze sztuczną inteligencją?
To jedna z cudownych zdolności ludzkiego mózgu, jest bardzo plastyczny. To jest nasza przewaga nad AI, bo po wytrenowaniu programu AI, tzw. pre-treningu, on niczego nowego się nie uczy, tylko odpowiada na pytania. Ludzie mają coś, co nazywa się uczeniem przez całe życie. Nawet po edukacji szkolnej mogą się dalej uczyć nowych rzeczy, które pojawiają się w świecie. Problem jest taki, że zmiany zachodzą tak szybko, że może to być wyzwaniem dla naszej zdolności adaptacji. Mam kurs online "Jak się uczyć", który pomaga ludziom uczyć się efektywniej. Barbara Oakley i ja, kiedy go tworzyliśmy, myśleliśmy, że pomoże uczniom, którzy chodzą do szkoły i muszą się uczyć. Ale okazuje się, że wielu użytkowników, ponad 6 milionów, to osoby w wieku 25-35 lat, które już nie uczą się w szkole, mają pracę, rodzinę, kredyt hipoteczny i potrzebują nowych umiejętności, bo ich praca się zmieniła. Ten kurs pozwala im to robić samodzielnie, w swoim czasie i jest bezpłatny. To dla nich trudniejsze, bo nie są już tak zwinni jak kiedyś, ale korzystając z wiedzy o tym, jak mózg się uczy, możemy poprawić ich zdolność uczenia się. Dlatego nasze kursy stały się najpopularniejsze na świecie.
Na koniec zapytam o rzeczy, których czasem się boimy, świadomość sztucznej inteligencji, a nawet samoświadomość. Czy to możliwe? Czy się wydarzy? Czy będziemy o tym wiedzieć?
Oczywiście, każdy jest ciekawy własnej świadomości. Jedną z rzeczy, które ChatGPT ujawnił, jest to, jak mało wiemy, co naprawdę znaczą te słowa. Nie ma jednej definicji świadomości. Jest wiele definicji inteligencji, na przykład czy ChatGPT jest inteligentny? Eksperci się spierają. To pokazuje, że naprawdę nie wiemy, co to słowo znaczy, jeśli nie możemy się co do tego zgodzić. To jest maszyna, prosta maszyna, a pokazała, że używamy słów, których naukowo nie zdefiniowaliśmy i musimy dużo więcej zrobić, by zrozumieć różnice. Istnieje cały zakres inteligencji na świecie, u innych gatunków, które są inteligentne w swojej niszy, a my ich nie rozumiemy. Myślę, że podobnie będzie z AI, będzie wiele różnych typów inteligencji, specyficznych dla nauki, historii, zdolnych do przyswajania ogromnych ilości informacji w konkretnych dziedzinach, czy firmach. Co ciekawe, jeśli spojrzysz do encyklopedii, jest inteligencja ludzka, sztuczna i wywiad wojskowy. To pokazuje, jak szerokie jest to pojęcie i wszystkie definicje są uzasadnione.
Czyli jest pan optymistą co do naszej przyszłości z AI?
Tak, jestem ostrożnym optymistą, bo uważam, że przed nami wiele problemów, ale jesteśmy w stanie je rozwiązać, choć to zajmie czas. Wszyscy oczekują, że stanie się to jutro. Ale jeśli spojrzymy na różne technologię, zawsze są problemy. Spójrz na silnik parowy, który rozpoczął rewolucję przemysłową.
A gdzie jest teraz?
Zaczęło się, gdy inżynier James Watt zbudował silnik, który podgrzewał wodę i dostarczał moc, ale był bardzo nieefektywny i czasem wybuchał. Potrzeba było stu lat, by go udoskonalić, fizycy musieli stworzyć całą teorię termodynamiki, by go zoptymalizować. Potem został rozbudowany, powstały pociągi, które przewoziły miliony ton przez Stany Zjednoczone po torach z silnikiem parowym. Teraz oczywiście technologia się rozwinęła, podobnie jak lotnictwo, które zaczęło się bardzo skromnie na Kitty Hawk u braci Wrightów i też zajęło sto lat, by się rozwinąć. AI nie jest tak bardzo inne. To kolejna technologia. Potrzebuje może i stu lat, by osiągnąć dojrzałość.


