"Myślę, że go mamy" - powiedział dyrektor laboratorium CERN w Genewie, Rolf Heuer. Chwilę wcześniej naukowcy uczestniczący w dwóch projektach badawczych ATLAS i CMS poinformowali, że znaleźli nową cząstkę, której własności wskazują na to, że może być poszukiwanym bozonem Higgsa. Informację na ten temat ogłoszono w CERN podczas specjalnego seminarium.

Istnienie cząstki Higgsa, odpowiedzialnej za to, że wszystkie pozostałe cząstki mają masę, przewiduje obowiązujący w teorii cząstek tak zwany Model Standardowy. Wygląda na to, że jej trwające od początku lat 60. ubiegłego stulecia poszukiwania kończą się sukcesem.

Cząstka Higgsa - przeczytaj oficjalny komunikat CERN

Cząstka Higgsa to ostatni, brakujący element Modelu Standardowego, który opisuje najmniejsze składniki materii. Pozostałe cząstki, przewidziane przez tę teorię znaleziono już wcześniej. Ta ostatnia może ostatecznie potwierdzić, że model jest zgodny z rzeczywistością. Może też wskazać na jego niedoskonałości, jesli okaże się, że ma własnosci inne od przewidywanych. Jej istnienie przewidziało w 1964 roku sześciu fizyków, w tym Brytyjczyk Peter Higgs, od którego nazwiska cząstka zyskała używaną do tej pory nazwę. Jej eksperymentalne poszukiwania rozpoczęły się w latach 80. minionego stulecia w akceleratorze Tevatron w laboratorium Fermilab niedaleko Chicago. Program znacznie przyspieszył w 2010 roku, kiedy rozpoczęto zbieranie danych w najpotężniejszym akceleratorze w historii, Wielkim Zderzaczu Hadronów w laboratorium CERN w Genewie.

Jak podkreśla doktor Paweł Brueckman de Renstrom z Instytutu Fizyki Jądrowej PAN, uczestnik eksperymentu ATLAS, to bardzo ważny dzień w historii fizyki cząstek elementarnych. Ostateczne potwierdzenie, że znaleziona cząstka to rzeczywiście bozon Higgsa powinno nastąpić już w tym roku.

Grzegorz Jasiński: Czy data 4 lipca 2012 roku będzie datą ogłoszenia odkrycia cząstki Higgsa, czy jeszcze zostanie nam pewien margines i dowiemy się tego jesienią?

Paweł Brueckman de Renstrom: Pewien margines pozostanie. Ja myślę, że datę 4 lipca trzeba traktować jako datę bardzo emocjonujących wieści, które stanowią duży krok w kierunku odkrycia. Niemniej przy założeniach, które sobie stawiamy, jak chodzi o statystyczną pewność, to potrzebujemy jeszcze odrobiny czasu, żeby to potwierdzić w 100 procentach. To na pewno nastąpi do końca tego roku.

Ta statystyczna pewność to jest możliwość błędu na poziomie 1/3,5-milionowej, tzn. mniej więcej 5 sigma?

5 sigma oznacza nawet więcej - to szansa, że to, co obserwujemy jest zwyczajną, statystyczną fluktuacją na poziomie 10 do minus 7. To jest bardzo małe prawdopodobieństwo - 1 na 10 milionów. Jest to oczywiście troszeczkę kwestia umowna, gdzie postawimy tę granicę, ale tak się fizycy umówili, że dopiero na tym poziomie ufności uznają obserwację za odkrycie.

Czy ta umowa ma już jakieś wcześniejsze precedensy, tzn. wcześniejsze odkrycia były właśnie ogłaszane z taką pewnością?

Tak. Trudno mi powiedzieć jak dawno to się ugruntowało, natomiast mniej więcej te same kryteria statystyczne były stosowane w przypadku odkryć ostatnich czasów, jak choćby z lat 90. odkrycia kwarku top - najcięższego z istniejących cząstek w ogóle. Nawet jeżeli ten Higgs, którego szukamy jest tam, gdzie się go spodziewamy, jest cząstką nieco lżejszą od topu, który ma 175 GeV, czyli jest 175 razy cięższy od protonu.

Nie dla wszystkich jest jasne, dlaczego dwie grupy naukowe pracujące na tym samym sprzęcie napędzającym eksperyment, ale na dwóch różnych tarczach badawczych, dwóch różnych detektorach, tak naprawdę utrzymują do ostatniej chwili tajemnicę. Dlaczego te informacje na temat badań projektu ATLAS i projektu CMS obie grupy mogły poznać dopiero dzisiaj?

To jest związane znowu ze swego rodzaju filozofią naszych badań. Człowiek jest ułomny i ludzie mają tendencje do tego, żeby choćby się sugerować jednymi wynikami ogłoszonymi przez drugich. W związku z tym przyjęto zasadę, że najbezpieczniejszą metodą jest działanie w pełni niezależne. Prawdą jest, że oba eksperymenty korzystają z danych produkowanych przez dokładnie ten samo akcelerator czy zderzacz LHC, jak to w tej chwili nazywamy. Niemniej zderzacz reprezentuje obiektywność fizyczną, tzn. rzeczywistość i tutaj absolutnie nie ma żadnej możliwość zakłamania czegokolwiek. Wszystko, co jest ponadto - detektor, aparatura, która rejestruje zdarzenia, programy, które te zdarzenia później analizują, tudzież ludzie, którzy te wyniki interpretują - to już są systemy, które mogą zawierać różnego rodzaju ułomności. Mogą to być ułomności ludzkie, techniczne, programistyczne itd. W związku z tym to, że jedna grupa wydaje się obserwować jakieś zjawisko, nie gwarantuje jeszcze, że ono jest prawdziwe. Jeżeli to samo zjawisko jest obserwowane przez dwie zupełnie niezależne grupy eksperymentalne, które są niezależne w tym sensie, że mają zupełnie inną aparaturę badawczą, zupełnie niezależne oprogramowanie i zupełnie niezależne grupy eksperymentalne, czyli ludzi, to wtedy poziom ufności jest nieporównywalnie wyższy.

Czym się różnią te dwa eksperymenty?

ATLAS i CMS, mimo że ich cel nadrzędny jest w zasadzie ten sam, różnią się dosyć fundamentalnie jak chodzi o zastosowane technologie pomiaru, konstrukcję samego detektora czy spektroskopu, jak to nazywamy. Jeżeli jakiekolwiek błędy pomiaru lub nieprawdziwe obserwacje wynikały z błędnego działania, interpretacji odpowiedzi detektora, to oczywiście wtedy szansa na to, żeby podobny błąd popełnić w dwóch miejscach jest w zasadzie zaniedbywalna. Ja nie chcę wchodzić w różnice techniczne pomiędzy konstrukcją jednego, a drugiego. Mogę powiedzieć jako ciekawostkę, że ATLAS jest największym tego typu detektorem istniejącym na świecie. Ma rozmiary mniej więcej sześciopiętrowego bloku 40-metrowej długości. CMS jest dwa razy mniejszy, jeśli chodzi o rozmiary geometryczne, natomiast jest kilkakrotnie cięższy. Po prostu jest trochę inna filozofia konstrukcji samej aparatury badawczej. Jak chodzi o oprogramowanie, które oczywiście jest tą następną warstwą, to było konstruowane też zupełnie niezależnie. Tutaj nawet trudno to komentować, bo różnice są w każdym miejscu. Cel nadrzędny i te funkcjonalne elementy są jednak naturalnie podobne, bo zdążamy od tzw. surowych danych do wyniku fizycznego. W końcu zupełnie niezależne są grupy fizyczne. Z definicji ktoś, kto należy do eksperymentu ATLAS nie należy do eksperymentu CMS i na odwrót.

Porozmawiajmy chwilę o procesie fizycznym, który jest badany przez te detektory. Nie próbujemy zobaczyć bezpośrednio cząstki Higgsa. Próbujemy wywnioskować jej istnienie z produktów jej rozpadu. Nie zawsze to są te same produkty.

Tak. Obserwacje w fizyce cząstek zazwyczaj polegają na obserwacji czy pomiarze tzw. masy inwariantnej. To jest ta masa, którą intuicyjnie rozumiemy jako ciężar danego obiektu. Określenie "inwariantna" jest związane z faktem, że niezależnie od tego w jakim układzie odniesienia ją mierzymy, będzie miała tę samą wartość. To jest oczywiście wykorzystywane ze względu na to, że te cząstki, które są produkowane, zazwyczaj produkowane są w ruchu. One rzadko kiedy rzeczywiście spoczywają, zazwyczaj pędzą w jakimś kierunku. W związku z tym masa inwariantna to bardzo cenna cecha, bardzo fundamentalna wielkość fizyczna. W przypadku Higgsa poszukujemy jej w różnych tzw. kanałach fizycznych. Są kanały fizyczne, które umożliwiają bezpośredni pomiar masy. Są też takie, które tego pomiaru nie umożliwiają. Podam przykład - ten wynik, o którym mówimy w tej chwili, ta znacząca obserwacja, żeby być ostrożnym, przy masie w okolicach 126 GeV, to jest dosyć precyzyjnie określona masa na podstawie dwóch kanałów rozpadu. Jeden jest rozpadem na dwa fotony. Fotony dokładnie takie same jak pojedyncze cząstki światła, które nas otaczają, z tym że te fotony akurat są bardzo wysoko energetyczne i rejestrowane z dość dużą dokładnością w naszej aparaturze. Drugi kanał podstawowy, który przyczynił się do tej obserwacji, to tzw. rozpad kaskadowy, w którym najpierw następuje rozpad na dwie cząstki Z. To jest może niezbyt na co dzień kojarzona cząstka, ale bardzo ważna w fizyce i jeden z podstawowych bozonów odpowiadających za oddziaływanie elektrosłabe. Jest to cząstka, która już dawno temu została odkryta i bardzo dobrze zbadana, np. na akceleratorze LEP w CERN-ie w latach 90. Następnie te dwie cząstki Z rozpadają się każda kolejno na dwa leptony. Lepton to z kolei cząstka, którą może być np. elektron albo mion - jego nieco cięższa siostra. I to są kanały, w których jesteśmy w stanie w pełni zrekonstruować daną cząstkę, czyli masę inwariantną, o której wcześniej mówiłem. Są natomiast inne kanały, np. kanał rozpadu na dwie cząstki W. Jest ona bliską kuzynką Z, ale ma nieco inne własności i rozpada się m.in. na jeden lepton i na drugą cząstkę niewidzialną, tzw. neutriny. W tym kanale nie jesteśmy w stanie zmierzyć masy, ale jesteśmy w stanie obserwować tzw. nadmiar przypadków w pewnym przedziale masy albo obszarze energetycznym. Tego typu obserwacja również przyczynia się do tego wyniku, przy czym eksperyment ATLAS nie uwzględnił wyniku z danych z 2012 roku w podawanym w tej chwili rezultacie. W rezultacie z zeszłego roku, który jest obecnie wspólnie brany pod uwagę, już ten kanał był uwzględniany.

Mówi się o tym, że jednym ze sposobów zwiększenia pewności wyniku, prawdopodobieństwa, że jest on odbiciem rzeczywistości fizycznej, jest w jakiś sposób zestawienie obserwacji i z jednego, i z drugiego eksperymentu. W jaki sposób mogłoby to zostać zrobione? Czy te dane można po prostu zsumować?

Można to robić na różnych poziomach. Ten wynik, który obecnie jest prezentowany, nie został skombinowany, jak to brzydko nazywamy. Jest to jednak standardowa procedura. Właściwie powiedziałbym, że składa się ona z dwóch etapów. Na pierwszym z nich sprawdza się czy te wyniki są zgodne lub inaczej mówiąc, czy się wzajemnie nie wykluczają. Najprostszym elementem takiego sprawdzenia jest to, czy cząstka, który jest obserwowana w jednym i drugim eksperymencie, w ramach oczywiście błędów eksperymentalnych, które znamy, ma tę samą masę. Jeżeli ma tę samą masę, co więcej, ma podobny widoczny przekrój czynny produkcji, czyli częstość występowania, to szansa, że jest to ten sam obiekt fizyczny jest ogromnie duża. Na kolejnym etapie może nastąpić skombinowanie wyników. Jest to procedura dosyć skomplikowana statystycznie ze względu na to, że właśnie przez odmienność eksperymentów różne są tzw. błędy systematyczne tych wyników. Błędy systematyczne to wszystkie błędy, które musimy uwzględnić i które są związane z działaniem aparatury, z naszą niewiedzą teoretyczną i oceną tzw. tła, o którym nie wspomniałem, ale które stanowi bardzo istotny element całej tej gry. W związku z tym, że oba eksperymenty w większości tych aspektów się różnią, może poza teorią, która jest elementem wspólnym dla obu, to oczywiście tę błędy muszą być bardzo precyzyjnie i ostrożnie kombinowane, żeby ostatecznie można było stwierdzić jaka jest statystyczna znaczącość skombinowanego wyniku. Jednak ponieważ ta bazowa fizyka, którą obserwujemy oraz zderzenia zachodzące w sercu eksperymentów CMS i ATLAS są absolutnie identyczne, mamy głębokie przekonanie, że fizyka się nie zmienia ze względu na położenie eksperymentu oraz czas jego wykonania. W związku z tym, jak chodzi o to, co obserwujemy, możliwość skombinowania czy połączenia dwóch wyników jest stuprocentowa.

Jak duże znaczenie dla tej ilości danych, które dziś zaprezentowano, miało podniesienie energii zderzeń w LHC?

Podniesienie energii z 7 do 8 teraelektronowoltów w środku masy nastąpiło na przełomie roku. Ma to oczywiście wpływ na spodziewany przekrój czynny produkcji cząstki Higgsa. Nie jest to dramatyczna zmiana. Tak jak można sobie wyobrazić, jest to różnica kilkunastoprocentowa, niemniej ma to dość istotny wpływ, nawet większy niż kilkunastoprocentowy, na produkcję, ponieważ ten przekrój czynny dosyć szybko rośnie wraz z energią. To jest z kolei związane z naturą protonu, z jego strukturą, ponieważ tak naprawdę my nie zderzamy protonów - tych wielkich, skomplikowanych, złożonych obiektów, tylko raczej ich poszczególne składniki. To z jaką energią te składniki się zderzają dość silnie się zmienia w zależności od energii protonów. A więc tak, ma to wpływ, aczkolwiek nie jest on dramatyczny. Istotniejszym dla naszego potencjału odkrywczego jest to, że akcelerator LHC działa fenomenalnie, czyli zrealizował nawet z nadwyżką stawiane sobie w planach zadania, a więc krótko mówiąc ilość danych czy też ilość zderzeń, które miał nam dostarczyć. W zeszłym roku zebraliśmy przez cały rok, od wiosny do późnej jesieni, tzw. 4.7 odwrotnych femtobarnów. To jest po prostu miara ilości zderzeń dostarczonych przez akcelerator. W tym roku do drugiej połowy czerwca zebraliśmy prawie 6 odwrotnych femtobarnów, czyli widać, że w ciągu zaledwie kilku miesięcy zebraliśmy już istotnie więcej niż w całym poprzednim roku. To oczywiście ma zasadniczy wpływ na nasz potencjał odkrywczy. Dane z tego roku już w tej chwili są co najmniej tak istotne, a w zasadzie nawet ważniejsze w ogólnym wizerunku niż te z zeszłego roku. To, co prezentujemy jest oczywiście ich połączeniem, natomiast spodziewamy się, że jeżeli wszystko pójdzie dobrze, do końca grudnia prawdopodobnie jeszcze podwoimy ilość danych zebranych dotąd w tym roku. To właściwie umożliwi nam stwierdzenie już z dużą wiarygodnością czy to, co obserwujemy jest rzeczywiste, czy też przypadkowe.