„Chowaj twarz przed algorytmami” – kolejny wstępniak do newslettera Artura Kurasińskiego
Informacja Prasowa - 28.11.2019"Chowaj twarz przed algorytmami" - kolejny wstępniak do newslettera Artura Kurasińskiego
“Timeo Danaos et dona ferentes” czyli “Obawiam się Greków, nawet gdy niosą dary”. Sentencja stara ale jakże żywa. Tak powinniśmy bowiem podchodzić do każdej technologii i wynalazku bo jak pokazuje ostatnia dekada my, ludzie umiemy perfekcyjnie wykorzystać każdą technologię do robienia sobie nawzajem krzywdy.
Miałem niedawno na zaproszenie UPC okazję oceniać startupy w ramach konkursu Think Big. Jednym z nich była firma Quantum CX, która dla banku PKO BP wdrożyła technologię pozwalającą poprzez sensory badać reakcje (a dokładnie czy ktoś się uśmiecha) pracowników banku oraz obsługiwanych przez nich klientów. Celem miało być promowanie uśmiechu za który otrzymywano punkty (mogące być wymienione na środki przeznaczone na cele charytatywne).
Podczas finałowej rundy pomysł oceniłem jako “diabelski” i starałem się przekonać innych członków jury o kompletnej niedorzeczności takiego rozwiązania (a nawet niebezpieczeństwach). Zostałem przegłosowany i projekt wygrał w swojej kategorii.
Minęło trochę czasu i okazało się, że Adam Bodnar (Rzecznik Praw Obywatelskich) wystąpił do Głównego Inspektora Pracy z wnioskiem o zbadanie akcji banku. Jemu też nie podobało się, że maszyna i algorytm mają badać zachowanie pracowników banku i ich klientów. Przy okazji okazało się, że czujniki Quantum CX zostały zamontowane nie tylko w banku ale również w Urzędzie Miasta w Sopocie.
Może teraz już sobie myślisz “po cholerę on się czepia tej firmy i jej technologii?”. Odpowiem tak – to idealny wstęp do dalszego kontrolowania oraz wpływania na zachowania ludzi za pomocą algorytmów. Pal licho, że sztuczny uśmiech jest zły.
Chodzi o to, że cały proces kontrolują algorytmy, które zawierają błędy. I pozwalanie im na ingerowanie w tak delikatne kwestii jak na przykład obsługa klienta jest bardzo mały bezpieczne. Algorytmy nie potrafią rozpoznawać twarzy ludzi o ciemnej skórze. Czarnoskórzy pacjenci mogą mieć też problemy z prawidłową oceną stanu zdrowia.
Zadaniem algorytmów ma być upraszczanie i systematyzowanie rzeczywistości. Przypadki specjalne albo mało powtarzające się są ogromnym problemem z którym maszyny nie potrafią sobie poradzić
W Los Angeles umiano się przyznać do błędu – program PredPol stosowany przez policję do prognozowania występowania przestępstw. Oczywiście program opiera się na danych historycznych i na początku wszystko wyglądało w porządku – system przewidywał, że przestępstwa powstaną w biednych dzielnicach i tam wysyłał patrole.
I policjanci byli świadkami wykroczeń i przestępstw. Po krótkim czasie stworzono sprzężenie zwrotne – pojawianie się policjantów powodowało agresję a raport o bójkach czy kradzieżach potwierdzały konieczność wysyłania patroli w te rejony.
System starał się rozumować logicznie – skoro przewidział, że pojawi się występek (i takowy był raportowany) to wszystko było w porządku? Dlaczego PredPol nie wysyłał patroli do dzielnic bogatych? Bo z jego danych historycznych wynikało jednoznacznie, że tam jest mniej przestępstw.
I koło się zamykało.
Algorytmy wykorzystywane są już także w HR. Co tutaj może pójść źle? Otóż automatyzacja takich procesów może skutkować bezrefleksyjnymi zwolnieniami ludzi, którzy z jakiś powodów (Amazon).
To samo może zdarzyć się w procesie zatrudniania – przecież wydajność procesów rekrutacji jest kluczowa dla wielu firm. Skoro można przesłuchać setki osób w tym samym czasie to dlaczego nie powierzyć tego procesu algorytmom (Unilever)?
A jeśli już mamy pracowników i boimy się, że założą związki zawodowe? No cóż – zawsze możemy szpiegować ich (przeglądać ich maile) żeby wyłapywać konwersacje na ten temat (Google).
Albo kiedy okazuje się, że algorytm jest seksistowski – kobiety nie dostaną takiego samego limitu kredytu jak mężczyźni (Apple).
A może wtedy kiedy algorytm będzie wyszukiwał wady genetyczne poprzez skanowanie twarzy noworodków? Jak sądzicie jakie to wywoła emocje wśród rodziców?
Problem z AI jest taki, że to my, ludzie uczymy programujemy je i definiujemy oczekiwania. Bardzo dobrze wyjaśnia to Janelle Shane, która na pozornie śmiesznych przykładach (“stwórz nowe smaki lodów”) pokazuje jak algorytmy stosują swoją logikę. I tworzą potwory.
Bardzo groźnie wyglądają wszelkie próby sprzęgnięcia AI z rozpoznawaniem obrazu (a szczególności ludzkich twarzy). W Chinach dzięki taki rozwiązaniom rząd wyszukuje i wtrąca do obozów karnych przedstawicieli mniejszości ( na przykład Ujgurów) oraz zmusza ich do między innymi aborcji.
Żadna z największych firm technologicznych (GAFA) nie może pozwolić sobie na branie udziału w wyścigu mającego na celu stworzenie własnych rozwiązań. Amazon sprzedaje już takie rozwiązania (kamery z opcją rozpoznawania twarzy) policji.
Facebook przyznał, że pracuje od 2015 roku nad swoim projektem “facial recognition” ale tylko na swoje wewnętrzne potrzeby (ręka w górę kto jeszcze wierzy Zuckerbergowi).
W Hong Kongu trwa obecnie regularna wojna protestujących z policją. Tłum zasłania maskami twarze, używa się laserów do ogłupiania dronów jak i kamer policji, obala słupy z kamerami wyposażonymi w algorytmy do rozpoznawania twarzy. Tak wygląda starcie obywateli z państwem w XXI wieku.
W USA część osób uważa, że kwestie algorytmów a w szczególności tych używanych do rozpoznawania twarzy powinny być uregulowane. Takie głosy pojawiają się też w Europie.
Trzymajmy kciuki za tych, którzy podejmują takie próby. Prawdopodobnie nie ustrzegą nas przed inwazją kamer i algorytmów ale być może odsuną ten proces w czasie.
Po nie jesteśmy w stanie zatrzymać przyszłości. Algorytmy będą decydowały o coraz większej ilości spraw, która nas dotyczą.
Żeby było jasne. Nie obawiam się przyszłości spod znaku “Terminatora”. Stworzenie “świadomych i inteligentnych” robotów jest tak odległe w czasie (patrząc na to na jakim etapie badań jesteśmy), że nikt z nas tego nie doczeka.
Boję się bardziej świata w którym będziemy zależni od algorytmów ale nie będziemy w stanie zrozumieć jak są skonstruowane ani jak działają.