Martin Karplus, Michael Levitt i Arieh Warshel - to oni zdobyli tegoroczną Nagrodę Nobla w dziedzinie chemii. Wyróżniono ich za opracowanie podstaw modelowania przebiegu procesów chemicznych. Choć metody te stworzyli w latach 70. minionego wieku, programy komputerowe, które je wykorzystują, będą stosowane jeszcze długo. Na czym dokładnie polega sukces prac tegorocznych laureatów, wyjaśniają w rozmowie z Grzegorzem Jasińskim prof. Jacek Korchowiec i dr hab. Andrzej Eilmes.

Grzegorz Jasiński: Zacznijmy od najprostszego pytania. Czym laureaci chemicznego Nobla zasłużyli sobie na tę nagrodę?

Prof. Jacek Korchowiec: Główna zasługa polega na przesunięciu granic zastosowań metod obliczeniowych w kierunku układów bardzo dużych. Dzięki tegorocznym laureatom jesteśmy w stanie opisać układy złożone z bardzo wielu atomów, powiedzmy nawet, że setek tysięcy. Te układy są w pewien sposób dzielone na część, którą opisujemy bardzo dokładnie, oraz część, która jest opisywana trochę mniej dokładnie, ale dzięki temu chemia obliczeniowa, chemia teoretyczna mogła być praktycznie zastosowana do układów, które mają znaczenie, powiedzmy sobie, biologiczne. I to jest bardzo istotne dlatego, że dzięki ich pracom mamy sprzężenie zwrotne między eksperymentem a teorią. To, co jest sprawdzane in silico, czyli na komputerze, jest także weryfikowane przez eksperymentatorów. Teoretycy często podpowiadają pewne rzeczy eksperymentatorom, dla których łatwiej jest przeprowadzić eksperyment. Z drugiej strony eksperyment stymuluje prace teoretyków i staramy się rozwijać coraz lepsze metody.

Natomiast te granice przesunęły się. W latach 70., kiedy powstawały te prace, które zostały uhonorowane, moce komputerowe były zdecydowanie mniejsze. Można powiedzieć, że superkomputery z tamtego czasu były zdecydowanie gorsze niż nasze obecne komórki, które w praktyce możemy traktować jako pewnego rodzaju komputery. Tegoroczni laureaci musieli tworzyć pewne techniki, które pozwalały im opisać w jakiś sposób duże układy. Przy czym te metody, które opisali, które wprowadzili do kanonu obliczeniowego chemii kwantowej, nie straciły swojej ważności - jedynie przesunęły się granice wielkości tych części, części kwantowej i części klasycznej.

Grzegorz Jasiński: Jeśli moglibyśmy opowiedzieć dokładniej o tej granicy, którą oni z sukcesem wyznaczyli, między tym, co klasyczne, a tym, co kwantowe.

Prof. Jacek Korchowiec: Każda z metodologii, która tutaj jest opisywana - klasyczna, kwantowa - ma swoje wady i zalety. Najczęściej w metodach klasycznych nie jesteśmy w stanie opisać prostych reakcji chemicznych, czyli czegoś, co interesuje chemika, biochemika, biologa. Natomiast w świecie kwantowym jesteśmy w stanie opisać te reakcje chemiczne, przy czym tu jest kwestia także układów, które nas interesują. Układy, które interesują najczęściej biochemików, to są układy typu enzymów, białek, układy stworzone z setek tysięcy atomów. Oczywiście w każdym z takich układów można wyróżnić jakieś centrum katalityczne, czyli centrum odpowiedzialne za przebieg jakiegoś konkretnego procesu chemicznego. Z reguły techniki, które rozwinęli nasi nobliści, pozwalają oddzielić centrum istotne dla danego procesu chemicznego, czyli to centrum katalityczne, od całej reszty. Przy czym wzięcie samego centrum pozwala nam w pierwszym przybliżeniu coś opisać, natomiast otoczenie ma zawsze wpływ na to, co się dzieje w tym centrum. Oczywiście dzięki tym technikom możemy modelować cały układ chemiczny nawet wraz z otoczeniem, przy czym wybieramy sobie tą część, którą będziemy opisywali bardzo dokładnie i w zasadzie jedyne, co się zmieniło od lat 70., to - można powiedzieć - że ta część kwantowa może być trochę większa. Natomiast oczywiście ta część klasyczna może opisać układy, które idą już w setki tysięcy atomów, tak że tutaj jesteśmy w stanie opisać coraz to większe układy i próbować odpowiedzieć na różne pytania, które nurtują czy biochemików, czy biologów strukturalnych, czy także chemików.

Grzegorz Jasiński: Przeniesienie tych badań właśnie in silica, czyli przeniesienie ich do komputera, przynosi konkretne oszczędności, oszczędności czasu, także pieniędzy. Po prostu można wirtualnie sprawdzić, co tak naprawdę będzie warte dokładniejszego zbadania już w laboratorium.

Prof. Jacek Korchowiec: Tak, w tej chwili obliczenia są zdecydowanie tańsze niż eksperyment. Jeżeli jesteśmy w stanie wyeliminować sobie część układów z badań, a stwierdzić, że tylko niektóre są istotne dla jakiegoś procesu chemicznego, to już warto to analizować.

Dr hab. Andrzej Eilmes: Podstawowym problemem, na jaki napotykamy podczas próby opisu teoretycznego dużych układów biologicznych, jest to, że nasz apetyt rośnie w miarę jedzenia. Mamy, co prawda, bardzo dokładne metody chemii kwantowej, coraz mocniejsze komputery, ale mimo wszystko chcemy stosować te dokładne metody do coraz większych układów i zawsze znajdziemy taki układ, który nas interesuje, ale do którego nasza aparatura jeszcze nie jest wystarczająca. Tym niemniej chcielibyśmy uzyskać jakieś informacje bądź to w celu przewidywania pewnych zjawisk, bądź to w celu wyjaśnienia tych, które obserwujemy. Z drugiej strony mamy metody mniej dokładne. One bazują na klasycznej mechanice Newtonowskiej, ale pozwalają badać układy, które składają się z setek tysięcy czy z milionów atomów.

To, co zrobili nobliści, to jest pokazanie drogi, w jaki sposób łączyć te dwa podejścia, gdzie ustawić granicę między częścią układu traktowaną w sposób kwantowo-chemiczny, a gdzie użyć tej reszty, która jest traktowana mniej dokładnie i stanowi środowisko dla tej części, którą chcemy opisać. W tej chwili to jest takie standardowe podejście do badania dużych układów. To mogą być układy biologiczne, ale także katalizatory, w których mamy jakieś centrum i środowisko, nośnik katalizatora, czy otoczenie. To mogą być układy w rozpuszczalniku, gdzie mamy cząsteczkę rozpuszczoną, bądź jakiś układ rozpuszczony i musimy uwzględnić oddziaływania z rozpuszczalnikiem.

To, co stworzyli nobliści, to jest takie standardowe narzędzie, które wykorzystują nie tylko chemicy-teoretycy. To weszło do aparatu badawczego, teoretycznego wielu grup. W związku z tym także na naszym wydziale korzystają z tego nie tylko teoretycy, ale także zespoły zajmujące się na przykład modelowaniem procesów katalitycznych. Do pewnego stopnia także krystalografowie, którzy badają struktury białek. W końcu jeden z noblistów stosował metody dynamiki molekularnej w połączeniu z danymi krystalograficznymi do ustalenia struktury badanej substancji. Na Uniwersytecie Jagiellońskim wykorzystuje się takie metody tam, gdzie prowadzi się badania nad związkami biologicznymi, czy bada się oddziaływania leków z centrami aktywnymi enzymu. Takie badania prowadzi się na przykład w Collegium Medicum czy na Wydziale Biochemii i Biotechnologii. Głównym osiągnięciem tegorocznych noblistów jest właśnie dostarczenie pewnych narzędzi i wskazanie pewnego sposobu postępowania, który przesuwa granice naszych możliwości w traktowaniu dużych układów.

Grzegorz Jasiński: To są jednak prace sprzed nieomalże 40 lat. Można odnieść wrażenie, że jeśli chodzi o techniki obliczeniowe, to świat uczynił gigantyczny postęp, więc jak to jest, że te techniki przez nich wymyślone do tej pory są aktualne? Oczywiście programy są znacznie doskonalsze, potrafią więcej, ale ta myśl jakby pozostała.

Dr hab. Andrzej Eilmes: To nie powinno nas dziwić. Jeżeli wypracujemy pewne metody, które bazują na podstawowych zasadach, czyli tak jak tutaj mechanice kwantowej bądź na równaniach dynamiki klasycznej, to one zawsze pozostaną aktualne. Rozwój techniki obliczeniowej wcale nie spowodował, że te metody stały się mniej potrzebne - on wręcz umożliwił ich użycie na pełną skalę. Ponieważ w czasach, kiedy powstawały te pierwsze prace, możliwości autorów nie były duże, w związku z tym oni to stosowali dla niezbyt wielkich układów. Oczywiście później prowadzono coraz większe i coraz doskonalsze obliczenia, a teraz mamy możliwość rozpoczęcia badań układów znaczenie większej skali czy znacznie dokładniejszych. Te techniki pozostają jak najbardziej aktualne, a to, co nam dał postęp technik obliczeniowych, to jest to, że możemy to robić szybciej, czyli możemy badać więcej układów. Możemy także użyć większych układów i możemy przesunąć tę granicę między częścią, która jest opisywana w sposób dokładny, a tą drugą częścią, która tworzy to otoczenie czy środowisko, które jest traktowane w sposób bardziej przybliżony czy też opisywane na poziomie tej dynamiki klasycznej. Nie ma wątpliwości: obie te techniki odpowiednio ze sobą połączone pozostaną aktualne jeszcze przez wiele lat i na pewno będą stosowane jeszcze co najmniej przez jedno pokolenie chemików obliczeniowych.