Amerykańscy naukowcy wbudowują w sztuczną inteligencję algorytmy, które mają działać bezpiecznie i w zgodzie z polityczną poprawnością. Jak piszą w najnowszym numerze czasopisma "Science", chcą zabezpieczyć układy sztucznej inteligencji i uczenia maszynowego przed wyciąganiem niepoprawnych wniosków, takich, które mogłyby prowadzić na przykład do przejawów dyskryminacji rasowej, czy ze względu na płeć. Autorzy pracy, badacze ze Stanów Zjednoczonych i Brazylii przekonują, że sztuczna inteligencja będzie miała coraz większe znaczenie w naszym życiu, dobrze byłoby, żeby jej tok rozumowania oddawał te wartości, które społeczeństwa obecnie uważają za ważne. Do tej pory zabezpieczenie się przed nieodpowiedzialnymi "pomysłami" układów sztucznej inteligencji należało do użytkownika, teraz nowe algorytmy mają sprawić, że niepożądane "pomysły" w ogóle się nie pojawią.

Amerykańscy naukowcy wbudowują w sztuczną inteligencję algorytmy, które mają działać bezpiecznie i w zgodzie z polityczną poprawnością. Jak piszą w najnowszym numerze czasopisma "Science", chcą zabezpieczyć układy sztucznej inteligencji i uczenia maszynowego przed wyciąganiem niepoprawnych wniosków, takich, które mogłyby prowadzić na przykład do przejawów dyskryminacji rasowej, czy ze względu na płeć. Autorzy pracy, badacze ze Stanów Zjednoczonych i Brazylii przekonują, że sztuczna inteligencja będzie miała coraz większe znaczenie w naszym życiu, dobrze byłoby, żeby jej tok rozumowania oddawał te wartości, które społeczeństwa obecnie uważają za ważne. Do tej pory zabezpieczenie się przed nieodpowiedzialnymi "pomysłami" układów sztucznej inteligencji należało do użytkownika, teraz nowe algorytmy mają sprawić, że niepożądane "pomysły" w ogóle się nie pojawią.
Zdj. ilustracyjne /pixabay.com /

Autorzy pracy twierdzą, że podobnie jak można matematycznie zdefiniować pewne rozwiązania jako nadmiernie ryzykowne, czy niebezpieczne i ich po prostu unikać, tak samo można uznać je za niesprawiedliwe, czy nieuczciwe i dlatego niepożądane. Co ważne, twórcy nowych algorytmów zapewniają, że ich użytkownicy, ci, którzy będą chcieli wbudować je w swoje produkty, będą mogli wybrać, które z niepoprawnych politycznie idei chcą sztucznej inteligencji wyłączyć. W publikacji na łamach "Science" przypominają słynne Trzy Prawa Robotyki, które na początku lat 40. minionego stulecia sformułował w swoich opowiadaniach amerykański pisarz Isaac Asimov. W świecie, w którym roboty miały człowiekowi służyć, prawa te zapewniały, że nigdy człowieka nie skrzywdzą i nie dopuszczą przez zaniechanie, by doznał krzywdy. Zdaniem autorów, zadawane przez Asimowa pytania pozostały aktualne do dziś.

Philip Thomas, Yuriy Brun, Andrew Barto i Stephen Giguere z University of Massachusetts w Amherst, Bruno Castro da Silva z Federal University of Rio Grande del Sol w Brazylii i Emma Brunskill ze Stanford University zaproponowali taką konstrukcję algorytmów, która umożliwia użytkownikom większą kontrolę nad ich bezpieczeństwem i uczciwością. Jeśli ktoś stosuje algorytm uczenia maszynowego, trudno w pełni panować nad działaniem programu - mówił Philip Thomas. To oznacza nieprzewidziane ryzyko wyników obliczeń, zarówno w przypadku działania autonomicznych pojazdów, czy pomp insulinowych, jak i na przykład wyroków w sprawach kryminalnych, czy decyzjach dotyczących zatrudnienia. Nowe algorytmy mają sprawić, że użytkownicy będą w stanie narzucić sztucznej inteligencji ograniczenia dotyczące bezpieczeństwa, czy sprawiedliwości. 

Nazwaliśmy algorytmy stworzone nową metodą "seldońskimi" w nawiązaniu do jednej z postaci opowiadań Asimowa, Hari'ego Seldona - tłumaczył Thomas. Jeśli używamy seldońskiego algorytmu przy terapii cukrzycy możemy określić jako niepożądane stany o niebezpiecznie niskim poziomie glukozy we krwi. Możemy nakazać maszynie, by poprawiając działanie pompy insulinowej unikała zmian prowadzących do częstszych przypadków hipoglikemii. Większość dotychczasowych algorytmów nie brała tego pod uwagę, we wczesnych pracach się tym nie przejmowano. Działania na rzecz tego, by łatwiej można było kontrolować bezpieczeństwo i uczciwość algorytmów uczenia maszynowego stają się coraz ważniejsze w miarę tego, jak sztuczna inteligencja coraz silniej wpływa na nasze życie - dodaje pierwszy autor pracy. 

Twórcy nowego oprogramowania do uczenia maszynowego wprowadzili aż 21 różnych kryteriów, według których programy mają definiować sprawiedliwość i uczciwość. Chodzi o to, by użytkownicy, wykorzystujący algorytmy do konkretnych zastosowań i tworzenia określonych produktów, mogli jak najlepiej dopasować je do swoich potrzeb. Każdy może definiować niepożądane zachowanie systemu w nieco inny sposób. U Asimova sztywne prawa robotyki mogą prowadzić do paraliżu robotów, które nie będą w stanie działać, nie mając absolutnej pewności, że nie skrzywdzą człowieka. Można to obejść rezygnując z pewności i zastępując ją sensownym prawdopodobieństwem. To właśnie proponują autorzy publikacji w "Science" dając równocześnie możliwość narzucenia przez użytkownika konkretnych ram, poza które rozwiązania nie będą mogły wyjść. 

Testy nowych algorytmów przeprowadzono np. dla zadania przewidzenia średniej ocen 43 tysięcy studentek i studentów w Brazylii na podstawie wyników egzaminów wstępnych. Okazało się, że program potrafił wykonać zadanie omijając wszelkie pułapki związane z dyskryminacją ze względu na płeć. Kolejny test pokazał, że program potrafił sterować pracą pompy insulinowej tak, by nie dopuścić do zwiększenia częstości przypadków hipoglikemii. Jesteśmy przekonani, że jest tu jeszcze dużą przestrzeń do poprawy, nawet nasze proste algorytmy przyniosły już budzące wrażenie wyniki - mówi Thomas. Mamy nadzieję, że na bazie naszych metod kolejni badacze opracują bardziej wyrafinowane algorytmy, które można będzie odpowiedzialnie wykorzystać tam, gdzie dotąd uznawano korzystanie z uczenia maszynowego za zbyt ryzykowne - podkreśla. Chcemy rozwoju sztucznej inteligencji, która respektuje wartości bliskie jej użytkownikom i zasługuje na zaufanie - dodaje prof. Emma Brunskill ze Stanford University.