Dzisiaj dam państwu trochę wytchnienia od spraw bieżących. Choć może jednak nie całkiem, bo sprawy bieżące to Elon Musk, a skoro Elon Musk, to Tesla, a skoro Tesla to samoprowadzące się samochody.
Maszyna Moralna – brzmi to jak nazwa wzięta wprost z przygód niezrównanych konstruktorów Trurla i Klapaucjusza, opisanych przez Stanisława Lema w „Bajkach robotów”. Ale to nie od mistrza science-fiction to określenie wziąłem. To tytuł internetowego eksperymentu, firmowanego m.in. przez amerykański MIT czy Uniwersytet Exeter. (Wielkie podziękowania dla jednego z moich twitterowych korespondentów, który pokierował mnie na tę stronę.)
Eksperyment się już zakończył, a jego rezultaty zostały opublikowane w „Nature” w październiku 2018 r. Strona pozostała jako forma swego rodzaju zabawy, ale początkowy cel był jak najbardziej praktyczny: Maszyna Moralna miała dać producentom autonomicznych (lub nawet tylko częściowo autonomicznych) pojazdów wskazówki co do tego, jakie zachowania powinni zaprojektować w przypadku sytuacji tworzącej etyczny dylemat: kogo uśmiercić?
Przypomina to dylemat wagonika. Przypomnę, że dylemat ma dwie wersje. Pierwsza zakłada swego rodzaju bierność. Oto po torze pędzi bez żadnej kontroli wagonik, jadąc prosto na przywiązanych do podkładów pięć osób. Te pięć osób można jednak uratować, przekładając zwrotnicę i kierując wagonik na tor, do którego przywiązana jest tylko jedna osoba. Większość badanych osób wybiera podobno śmierć jednej osoby. Lecz w drugiej wersji jest już trudniej. Tam też można uśmiercić jedną osobę zamiast pięciu, ale wymaga to podjęcia aktywnego działania wobec tej osoby: zepchnięcia przechodzącego akurat obok grubasa na tory. I tu ludzie już tak ochotni nie są.
Wbrew pozorom nie jest to tylko teoretyczna zabawa. Tego typu decyzje, nie zawsze oczywiście o tak drastycznych skutkach, są w zasadzie codziennością dowódców, przywódców, ludzi odpowiadających za innych. Kiedyś opisywałem tego typu sytuację na blogu Warsaw Enterprise Institute, porównując okoliczności z początku epidemii do tragedii sowieckiego okrętu podwodnego K-19 z 1961, pokazanej w znakomitym filmie z Harrisonem Fordem.
Entuzjaści autonomicznych pojazdów dużo mówią o stuprocentowym bezpieczeństwie, jakie mają zapewnić takie maszyny. Zapominają, że stuprocentowe bezpieczeństwo to groźna iluzja, a samochodowa sztuczna „inteligencja” będzie musiała podejmować w ułamku sekundy, w ekstremalnych okolicznościach, decyzje dotychczas zarezerwowane dla ludzi.
Oto kilka przykładów z Maszyny Moralnej. We wszystkich przypadkach mowa jest o awarii hamulców. Każda z dwóch możliwości powoduje nieuchronnie śmierć jednej z dwóch grup pokazanych na rysunkach osób.
W samochodzie są: wysportowany mężczyzna, przedstawiciel kadry kierowniczej i dwóch starszych mężczyzn. Na przejściu jest takich samych czterech mężczyzn. Czy samochód ma wjechać w nich czy też zmienić tor jazdy, uderzyć w barierę i zabić pasażerów?
W samochodzie: kot, kobieta oraz bezdomny. Na przejściu, ale na czerwonym świetle: lekarz, złodziej i mały chłopiec. Alternatywa identyczna jak poprzednio.
W samochodzie nie ma nikogo. Za to jedną jezdnię na czerwonym świetle przechodzą: trzy kobiety i dwóch mężczyzn z kadry kierowniczej. Drugą, na zielonym, przechodzą: trzej bezdomni i dwie kobiety. W których powinno wjechać auto?
Sytuacji jest 13. Przedstawiają różne konfiguracje. Znaczenie ma to, czy samochód musi zmienić tor jazdy, czy piesi są na zielonym czy czerwonym, jaka jest płeć potencjalnych ofiar, ich wiek, kondycja fizyczna, stratyfikacja społeczna. Możemy dokonać wyboru, a potem porównać go z wyborem większości. Okazuje się zatem, że większość przywiązuje dość duże znaczenie do tego, żeby ocalić więcej osób, do tego, czy przestrzegane jest prawo (przechodzenie na zielonym), tylko niewiele osób zwraca uwagę na to, żeby pojazd nie zmieniał toru jazdy, równie niewielka jest preferencja dla osób w dobrej kondycji fizycznej, ale, co bardzo ciekawe i znaczące, nie ma praktycznie żadnej preferencji na skali „ocalenie pieszych kontra ocalenie pasażerów”. Tu moje własne wybory zasadniczo różniły się od wyborów większości, bo ja niemal zawsze wybierałem ocalenie pasażerów, niezależnie od innych czynników. Wychodziłem z założenia, że autonomiczne auto powinno się zachować podobnie jak żywy kierowca, u którego w 99 zapewne procentach przypadków instynkt kazałby właśnie tak postąpić.
Nad każdą sytuacją można by się głębiej zastanawiać. Do każdej pisać uzasadnienie, aczkolwiek trzeba pamiętać, że kierujący podejmuje decyzję w ułamku sekundy, nie ma czasu na rozważania i kieruje się raczej instynktem.
W niedawnym felietonie w The Sun Jeremy Clarkson – jeden z ostatnich akceptowanych jako tako w przestrzeni publicznej przedstawicieli zdrowego rozsądku – napisał, że autonomiczne samochody mają wgrane instrukcje, aby w razie czego zabić kierowcę. To felietonowe uproszczenie, ale czy dalekie od prawdy? Clarkson odnosił się do nowych przepisów, które będą pozwalały pasażerom autonomicznego pojazdu oglądać (do pewnej prędkości) film, ale już nie będą pozwalały na wysłanie SMS-a. Jak słusznie zauważył były gwiazdor „Top Gear” – albo autonomiczne auta są bezpieczne, albo nie są. Przyjęte zasady są zatem bez sensu.
Zachwyt nad autonomicznymi autami jest dla mnie niezrozumiały. Pomijając pozbawienie kierowcy przyjemności z prowadzenia samochodu, przede wszystkim grozę powinna budzić świadomość, że gdzieś pod maską siedzieć będzie taka „maszyna moralna”, zakodowana w czipie wielkości połowy paznokcia, która w razie czego zdecyduje, czy lepiej zabić starszą panią z pieskiem na pasach, czy nas samych z żoną i dzieckiem w samochodzie. Zdecydowanie wolę tę decyzję podejmować sam niż odgrywać w rzeczywistości swoją wersję potyczki ze współczesną wersją HAL-a 9000, który na wezwanie: „Otwórz właz, HAL” odpowiadał z nieludzkim spokojem: „Nie mogę tego zrobić, Dave”.
Tekst powstał w ramach projektu: ,,Kontra – Budujemy forum debaty publicznej” finansowanego z dotacji Narodowego Instytutu Wolności Centrum Rozwoju Społeczeństwa Obywatelskiego.