San Francisco jest na dobrej drodze, aby stać się pierwszym miastem USA, które zakaże technologii rozpoznawania twarzy. Jak czytamy w depeszy AP, jest to reakcja na rosnący społeczny bunt przeciwko takim algorytmom stosowanym w kamerach. Są one coraz częściej używane na lotniskach, w autach, sklepach, stadionach i w domowym monitoringu.

1. Zachować twarz ... tylko dla siebie

Agencje rządowe w Stanach Zjednoczonych od dziesięcioleci wykorzystują tę metodę do skanowania baz danych w poszukiwaniu podejrzanych i zapobiegania oszustwom dotyczącym tożsamości. Jednak obecne postępy w badaniach nad sztuczną inteligencją pozwalają stworzyć coraz bardziej zaawansowane narzędzia komputerowej analizy obrazu, ułatwiając policji zidentyfikowanie zaginionego dziecka, osoby protestującej w poruszającym się tłumie lub szczegółów twarzy klientów, kiedy przeglądają towary na półkach w sklepie.

Próby ograniczenia stosowania takich algorytmów wywołują sprzeciw zarówno ze strony organów ścigania jak i branży technologicznej, chociaż obie grupy nie tworzą jednego frontu. Microsoft, sprzeciwiając się całkowitemu zakazowi, nakłania ustawodawców do wprowadzenia restrykcji  w tej dziedzinie, ostrzegając, że całkowita swoboda wykorzystywania takich sposobów może doprowadzić do stworzenia totalitarnego państwa, dystopii w stylu słynnej powieści George'a Orwella "1984".

Rozpoznawanie twarzy jest jedną z technologii, które ludzi autentycznie przerażają - mówi Alvaro Bedoya, który kieruje Centrum Prywatności i Technologii Uniwersytetu Georgetown. To już nie 'ciasteczka' w przeglądarce. W tej technologii jest coś takiego, co sprawia, że włosy stają dęba - dodaje. Inni sceptycy podkreślają, że bez regulacji prawnych uniemożliwiających organom ścigania dostęp do baz danych kierowców, osoby, które nigdy nie zostały aresztowane, mogą trafić do wirtualnych katalogów policji bez ich wiedzy. Kontestujący tę technologię obawiają się, że ludzie pewnego dnia nie będą mogli pójść do parku, sklepu lub szkoły bez identyfikacji i śledzenia.

Już teraz są takie centra handlowe w USA, które testują algorytmy rozpoznawania twarzy, pozwalające ustalić wiek, płeć, a nawet nastrój swoich klientów przechodzących obok, aby  dostosować do nich reklamy. Są one ukierunkowane tylko na nich w czasie rzeczywistym.

San Francisco to miasto, w którym podkreśla się wagę takich spraw, jak ochrona imigrantów, wolności obywatelskie i prywatność. W listopadzie zeszłego roku prawie 60 proc. wyborców zatwierdziło propozycję wzmocnienia wytycznych dotyczących prywatności danych.

Proponowany zakaz algorytmów rozpoznawania twarzy jest częścią szerszego prawodawstwa mającego na celu regulację wykorzystania takich metod kontroli przez wydziały miejskie. Przepisy dotyczą tylko władz San Francisco i nie dotyczą firm ani osób, które chcą korzystać z tej technologii. Nie wpłynęłoby to również na wykorzystanie rozpoznawania twarzy na międzynarodowym lotnisku w San Francisco, gdzie bezpieczeństwo jest w większości nadzorowane przez agencje federalne.

Głosowanie nad ustawą już dziś - we wtorek. Jeśli nowe prawo zostanie przegłosowane przez Radę Nadzorczą w San Francisco, która ma między innymi uprawnienia ustawodawcze, i zostanie podpisane w przyszłym tygodniu, zakaz rozpoznawania twarzy w mieście wejdzie w życie 30 dni później. W toku są prace nad podobną ustawą w Oakland w Kalifornii, a w zeszły czwartek zaproponowano zakaz stosowania takiego algorytmu w Somerville w stanie Massachusetts.

Wrogowie "orwelliady" robią kolejne kroki w tym kierunku.

Pełen obraz problemu odmalowała Hannah Fry - brytyjska matematyczka i popularyzatorka nauki z Uniwersytetu College London- w książce "Hello word. Jak być człowiekiem w epoce maszyn".


2. Rytm algorytmów - puls naszego czasu

W tomie Hannah Fry można odnaleźć kategoryzacje algorytmów, w zależności od ich funkcji: od priorytetyzacji (np. gdy Google Search przewiduje, którą stronę chcemy zobaczyć, i tworzy ranking wyświetleń), klasyfikacji (np. gdy Facebook uzna kogoś za zainteresowanego reklamami pierścionków), asocjacji (np. gdy sklep internetowy kojarzy twoje zainteresowania z zainteresowaniami innych klientów), po filtrowanie (czyli wyróżnianie tego, co ważne).

Fry szeroko opisuje zastosowanie algorytmów w takich dziedzinach jak gry (przywołuje słynny szachowy pojedynek Garry'ego Kasparowa z zaprojektowanym przez IBM komputerem Deep Blue), media społecznościowe, polityka (głośna sprawa wpływu spółki Cambridge Analytica na brexit i wybór Donalda Trumpa), sądownictwo (pomoc w werdyktach sędziów), medycyna (diagnozowanie nowotworów), motoryzacja (wykorzystywanie w samochodach autonomicznych), sztuka (na przykład programowanie muzycznych imitacji muzyki klasycznej), i w końcu temat, od którego zaczęliśmy.

Autorka podaje dane, które mogą naprawdę przerazić obrońców praw człowieka. Brytyjska policja ma obecnie bazę `9 milionów zdjęć twarzy, na którą składają się wszystkie fotografie wykonane osobom podejrzanym o popełnienie przestępstwa. FBI dysponuje bazą liczącą 411 milionów zdjęć, która obejmuje podobno połowę wszystkich dorosłych Amerykanów, a w Chinach, gdzie baza danych, złożona z fotografii, z dokumentów tożsamości, daje łatwy dostęp do miliardów twarzy, władze już zainwestowały grube pieniądze w ich rozpoznawanie: na ulicach, stacjach metra i lotniskach zainstalowano kamery, które podobno rejestrują wszystkich, od poszukiwanych przestępców po niefrasobliwych pieszych (pojawiają się nawet domysły, że drobne naruszenia porządku, takie zaśmiecanie ulic, wpływają na ogólny wynik w punktacji SESAME CREDIT i powodują wymierzanie kar (...).      

O postępie tej technologii niech świadczy fakt, że jedna z historii opisanych przez Fry miała miejsce już w latach 90. Jest to relacja z dochodzenia przeprowadzonego przez byłego kanadyjskiego policjanta Kima Rossma, który opracował algorytm geograficzny pozwalający na ujęcie seryjnego przestępcy seksualnego, gwałciciela z Anglii.

Zespół dysponował pięcioma lokalizacjami przestępstw oraz kilkoma adresami sklepów, w których napastnik kupował alkohol, papierosy i gry wideo na skradzione ofiarom karty kredytowe. Na podstawie wyłącznie tych informacji algorytm oznaczył dwa główne obszary, w których najprawdopodobniej mieszka gwałciciel - Millgarth i Killinbeck, oba na przedmieściach Leeds. Policja miała jeszcze jeden kluczowy dowód w sprawie: częściowy opis palca pozostawiony na miejscu przez napastnika na miejscu jednego z wcześniejszych ataków. Próbka była zbyt mała, żeby automatyczny system identyfikacji daktyloskopijnej mógł wyłowić sprawcę z bazy danych skazanych przestępców, tak więc wszelkie badania porównawcze musiał wykonywać uzbrojony w lupę ekspert. Na tym etapie śledztwo trwało już prawie trzy lata i mimo ogromnych wysiłków 180 policjantów z pięciu różnych wydziałów pomysły na przełom zaczynały się wyczerpywać. Każda wskazówka prowadziła do kolejnej ślepej uliczki.

Śledczy postanowili ręcznie sprawdzić wszystkie odciski palców pobrane w dwóch wskazanych przez algorytm obszarach. Najpierw sprawdzono MYLLGARTH, lecz poszukiwania w bazie odcisków tamtejszej komendy policji nie przyniosły rezultatu. Sprawdzono więc KILLINBECK- i po 940 godzinach przesiewania tamtejszych kartotek policjanci w końcu ustalili personalia sprawcy, okazał się nim niejaki Clive Barwell.

Barwell miał 42 lata, był żonaty, miał czwórkę dzieci i w przerwie między atakami siedział w więzieniu za napad z bronią w ręku. Obecnie pracował jako kierowca ciężarówki i regularnie jeździł w długie trasy na północ i południe kraju; mieszkał jednak w Killinbeck i często odwiedzał matkę w Millgarth, drugim obszarze wytypowanym przez algorytm. Sam częściowy odcisk palca nie wystarczyłby, żeby zidentyfikować go ponad wszelką wątpliwość, ale przeprowadzone później badanie DNA potwierdziło, że to on popełnił potworne zbrodnie, o które go oskarżano. Policja znalazła wampira. Na rozprawie sądowej w październiku 1999 roku Barwell przyznał się do winy. Sędzia skazał go na osiem kar dożywotniego więzienia. 

Algorytmy to nie jest tylko "albo-albo" - albo prawo do wolności, albo Wielki Brat. Między nieuregulowanym stosowaniem rozpoznawania twarzy, a całkowitym zakazem jest szerokie pole: i do dyskusji, i do zmian w prawie.  


Opracowanie: