Czy Twój autonomiczny samochód mógłby Cię zabić?

Dźwięk piszczących opon, a następnie autobus pędzący prosto na Ciebie. To nie jest coś, na co chciałbyś się natknąć, jadąc stromą, wąską drogą. Ale w marcu 2015 r., na przełęczy Franschhoek w RPA, właśnie z tym spotkał się jeden rowerzysta po tym, jak kierowca autobusu skręcił, próbując ominąć dwóch innych rowerzystów podczas pokonywania ostrego zakrętu. Autobus przewrócił się i trzech pasażerów straciło życie.

W śledztwie, które nastąpiło, policja wspominała o ściganiu kierowcy autobusu za „zawinione zabójstwo”, zarzut wynikający z niedbałego zabójstwa osoby zgodnie z prawem Republiki Południowej Afryki. Ale co mogliby powiedzieć, gdyby autobus był napędzany przez autonomiczne oprogramowanie?

Kierowca stanął przed rzadkim i skomplikowanym rodzajem dylematu moralnego, w którym zmuszony był wybrać jedną z dwóch złych opcji.

Analiza powyższego scenariusza rodzi dwa główne pytania: pierwsze to pytanie, czy wypadku można było uniknąć poprzez lepszą konserwację pojazdu, ostrożniejszą jazdę, lepszy projekt drogi lub inne praktyczne środki oraz czy doszło do zaniedbania w którymkolwiek z tych obszarów.

Drugim jest pytanie, czy jeśli wypadku nie można było uniknąć, to co było najmniej moralnie złym działaniem?

Myśląc o tych kwestiach w kategoriach pojazdów autonomicznych, odpowiedź na pierwsze pytanie jest stosunkowo łatwa. Oprogramowanie kierowcy będzie miało szybsze czasy reakcji i będzie bardziej ostrożne i wierne fizyce niż kierowcy, co oznacza, że ​​samochody bez kierowcy będą mogły bardzo szybko zatrzymać się po wykryciu zagrożenia. Poza tym nigdy się nie popisują ani nie upijają.

Jednak ich czujniki i procesy klasyfikacji obrazów pozostaną przez jakiś czas bardziej prymitywne niż ludzka percepcja, co oznacza, że ​​mogą nie rozpoznawać lub klasyfikować nieoczekiwanych zagrożeń tak, jak robią to ludzie.

Na przykład nie będą w stanie wiarygodnie odróżnić dzieci od dorosłych. Nie będą też wiedzieć, czy inne pojazdy są puste, czy przewożą pasażerów. Niektórzy komentatorzy uważają, że po udoskonaleniu technologii autonomiczne pojazdy mogłyby zapewnić nam całkowicie bezwypadkowy środek transportu.

Jednak analizy statystyczne na dużą skalę, takie jak te przeprowadzone przez Noah Goodall z Departamentu Transportu w Wirginii, wskazują, że jest to mało prawdopodobne. Dzięki istnieniu pieszych, rowerzystów, a nawet zwierząt, nasze drogi są zbyt nieprzewidywalne, aby jakikolwiek system autonomiczny mógł wszystko wziąć pod uwagę.

Jak więc samochody autonomiczne wpisują się w kwestię moralną?

Po pierwsze, oprogramowanie dla kierowców pojazdów autonomicznych nie będzie miało lat rzeczywistego doświadczenia, aby nauczyć się niuansów moralności poprzez pochwały, obwinianie i karanie, tak jak ma to miejsce w przypadku ludzkiego kierowcy.

Nie będzie też w stanie wykorzystać swojej wyobraźni do budowania na tych wcześniejszych doświadczeniach edukacyjnych. Wyobraź sobie podobną sytuację do powyższego scenariusza.

Pojazd napędzany całkowicie przez oprogramowanie i przewożący jednego pasażera porusza się pod górę po stromym zakręcie na wąskiej dwupasmowej górskiej drodze. Dwoje dzieci zjeżdża w jego kierunku na rowerach po niewłaściwej stronie jezdni, a ciężarówka zbliża się drugim pasem. Aby uniknąć dzieci, samochód może uderzyć w ciężarówkę lub zjechać z drogi, ale jeśli się zatrzyma, dzieci w nią uderzą. Wjechanie w ciężarówkę lub zjechanie w przepaść prawdopodobnie zabije pasażera, ale uratuje dzieci. Próba zatrzymania się może doprowadzić do śmierci dzieci, jeśli zderzą się z samochodem, ale pasażer będzie chroniony. Do czego powinno być zaprojektowane oprogramowanie samochodu?

Wbudowany kompas moralny

Oczywiście takie dylematy zdarzają się rzadko, ale mimo to są kluczowym problemem dla inżynierów i regulatorów. Ale podczas gdy wspomniany powyżej ludzki kierowca autobusu miał tylko przerażający ułamek sekundy na podjęcie decyzji dotyczącej życia i śmierci, inżynierowie mają wiele godzin w bezpiecznym biurze na zaprojektowanie reakcji oprogramowania kierowcy pojazdu.

Oczywiście oznacza to, że nie mogą twierdzić, że zareagowali „instynktownie” z powodu presji czasu lub strachu. W razie wypadku sądy stwierdzą, że inżynierowie zaprogramowali oprogramowanie racjonalnie i celowo i oczekują, że będą w pełni moralnie odpowiedzialni za swoje wybory. Więc co muszą wziąć pod uwagę?

Istnieją trzy szerokie szkoły myślenia.

Po pierwsze: można oczekiwać, że oprogramowanie sterownika autonomicznego będzie działało zgodnie z wyższymi standardami moralnymi niż ludzki kierowca  z powodu braku presji czasu i zaburzeń emocjonalnych oraz większej mocy obliczeniowej.

Po drugie: można oczekiwać, że będzie działał na niższym poziomie moralnym z powodu braku subtelności klasyfikacji przez czujniki i nadrzędnego przekonania, że ​​tylko ludzie mogą działać etycznie, ponieważ oprogramowanie nie może być świadome ani odczuwać bólu.

Po trzecie: można oczekiwać, że oprogramowanie będzie działać zgodnie z tymi samymi standardami moralnymi, jakie stosuje się do kierowców.

Wszystkie trzy opcje oznaczają, że standard moralny oczekiwany od ludzkich kierowców w takich dylematach jest ostatecznie znany. Ale kiedy są zmuszeni do szybkiego działania, ludzie często używają swoich instynktów, zamiast świadomej, racjonalnej analizy.

Instynkty można doskonalić poprzez doświadczenie życiowe lub celową praktykę, ale nie są one pod świadomą kontrolą w miejscu zastosowania.

Nasze emocje mogą również wpływać na instynktowne działanie. Tak więc ludzki kierowca może instynktownie odskoczyć od dużego obiektu, takiego jak ciężarówka, nie będąc w stanie przetworzyć obecności rowerzystów. Albo człowiek o różnych instynktach może działać, aby chronić wrażliwe dzieci, nie zdając sobie sprawy z własnego niebezpieczeństwa.

Takie nieprzemyślane reakcje nie są decyzjami moralnymi, które zasługują na pochwałę lub winę. Czego więc wymagałoby moralne zachowanie, gdybyśmy odłożyli na bok zakłócające czynniki, takie jak czas i emocje?

Badanie takich kwestii przenosi nas na terytorium teorii etycznej, gałęzi filozofii zajmującej się wydobywaniem i kodyfikowaniem moralnie preferowanych opcji z bagna ludzkich zachowań i przekonań. Filozofowie rozwinęli logicznie spójne teorie na temat tego, jakie są moralnie preferowane działania w danej sytuacji.

Obecnie istnieją dwaj główni pretendenci do czołowego podejścia teoretycznego: konsekwencjalizm i deontologia. Teorie konsekwencjalistyczne mówią, że właściwe działanie to takie, które daje najlepsze rezultaty. Teorie deontologiczne mówią, że prawidłowe działanie to takie, w którym intencje ludzi były najlepsze, niezależnie od rezultatów.

Pomimo wyjścia z różnych założeń założycielskich dotyczących tego, co jest wartościowe lub dobre, te dwie teorie są zgodne co do moralnie preferowanego działania w większości typowych sytuacji. Niemniej jednak czasami się różnią.

Etyka algorytmów

Zarówno konsekwencjalizm, jak i deontologia opierają się na spójnym rozumowaniu zaczerpniętym z małego zestawu założeń, co potrafią algorytmy.

Czy możemy więc napisać algorytmy, które obliczą najlepszy sposób działania, jaki należy podjąć w obliczu dylematu moralnego? Osoby pracujące w małej naukowej dziedzinie etyki maszyn uważają, że możemy.

Naukowcy zajmujący się sztuczną inteligencją, Luis Moniz Pereira i Ari Saptawijaya, zestawiali, rozwijali i stosowali języki programowania i struktury logiczne, które wychwytują deontologiczne lub konsekwencjalistyczne rozumowanie dotyczące konkretnych problemów moralnych.

Programy te mają ograniczony zakres, ale ich praca sugeruje, że byłoby możliwe zaprogramowanie jednostki tak, aby zachowywała się zgodnie z jedną z głównych teorii etycznych w małej dziedzinie.

Ta praca jest często krytykowana, nie tylko za to, że nie obejmuje całego zakresu problemów etycznych. Jednak nieco głębsze spojrzenie na teorię moralną sugeruje, że jest to nieuniknione.

Większość przypadków, w których zgadzają się te dwie teorie moralne, jest łatwa do rozstrzygnięcia przez sądy. Ale są pewne rodzaje spraw, w których sędziowie muszą odwołać się do mądrości wyciągniętej z lat doświadczeń na sali sądowej.

Przykłady obejmują procesy w sprawach zbrodni wojennych, przypadki katastrof statków i przypadków ocalenia, prawo medyczne, a także wypadki drogowe. Ze względu na swoją złożoność i powodowany przez nie dyskomfort moralny, sprawy takie jak te przyciągają wiele uwagi prawnej i filozoficznej.

Problemy z wózkiem

W teorii etycznej skomplikowane dylematy moralne nazywane są „problemami wózka” po eksperymencie myślowym wprowadzonym przez brytyjskiego filozofa Philippa Foot w 1967 r. (Patrz diagram poniżej).

Eksperyment prosi cię o wyobrażenie sobie uciekającego wózka (tramwaju) jadącego z zawrotną prędkością w kierunku grupy pięciu osób. Stoisz obok dźwigni, która może przełączyć wózek na inny zestaw torów, na którym jest tylko jedna osoba. Co należy zrobić?

Dwie główne teorie etyczne nie są zgodne co do moralnie poprawnego sposobu postępowania w problemach wózków. Ludzie również nie zgadzają się z tym, jaki jest najlepszy sposób działania.

Ilustracja problemu wózka © McGeddon / Wikimedia Commons

Badania pokazują, że większość ludzi nie pociągnie za dźwignię i dlatego upada po stronie teorii deontologicznej. Skany MRI pokazują, że obszary mózgu związane z emocjami rozjaśniają się, gdy osoby te rozważają pytanie. Myślą, że pociągnięcie za dźwignię, wiedząc o jednej osobie na bocznym torze, oznaczałoby podjęcie działania mającego na celu zabicie tej osoby.

Rozmyślne działanie w celu wykorzystania jednej osoby dla korzyści pięciu innych jest uważane za niewłaściwe, niezależnie od wyniku. Tutaj stanie w miejscu i nie robienie niczego jest dopuszczalne, ponieważ skoro nie ma żadnego działania, nie może być „złego” zamierzonego zamiaru. Śmierć piątki to tylko niezamierzony efekt uboczny zrobienia czegoś całkowicie akceptowalnego: nic.

Jednak mniejszość jest bardzo przekonana, że ​​konsekwencjalizm jest bardziej pożądany, a skany MRI ich mózgów wykazują większą stymulację logicznych obszarów rozumowania podczas rozważania problemu. Pociągnęliby za dźwignię, ponieważ jedna śmierć jest znacznie lepszym wynikiem niż pięć zgonów, a to, czy był świadomy zamiar zabicia, czy nie, nie ma znaczenia – liczy się tylko wynik.

Podobnie, jeśli przypomnimy sobie nasz wcześniejszy scenariusz, w którym pasażer podróżuje górską drogą, to konsekwencjalistyczna teoria głosi, że zabicie ich przez samochód ma sens, ponieważ dwoje dzieci zostałoby uratowane. A ratowanie dwojga istnień jest lepsze niż uratowanie jednego.

Systemy wizyjne LIDAR odbijają lasery wokół samochodu, generując obraz jego otoczenia © Alamy

Postępowanie zgodnie z którąkolwiek z teorii jest uważane za postępowanie zgodne z zasadami etycznymi. W świecie prawa sędziowie muszą uznać, że niektóre działania, z którymi się nie zgadzają, są jednak moralnie dopuszczalne. Poszanowanie etycznego rozumowania innych jest jednym ze sposobów, w jaki rozpoznajemy i traktujemy innych ludzi jako podmioty moralne o równym statusie jak my.

Jest to ważna – choć subtelna – część naszego dzisiejszego zachodniego konsensusu etycznego, ponieważ wierzymy, że wierność naszym przekonaniom etycznym przyczynia się do naszego dobrobytu. To sprawia, że ​​problem jest trudniejszy dla projektantów oprogramowania autonomicznych sterowników: nie ma jednego standardu moralnego oczekiwanego od ludzkich kierowców w tych dylematach. Niezależnie od wybranej teorii, w końcu obrażą moralność klientów kierujących się zasadami etycznymi, którzy faworyzują drugą teorię.

Wyobraź sobie, czysto spekulatywnie, że inżynierowie mają tendencję do zaliczania się do konsekwencjalistycznej mniejszości i dlatego projektują konsekwencjalistyczne oprogramowanie sterownika. Wyobraź sobie jednak, że większość klientów jest deontologiczna. Inżynierowie narzuciliby swoje własne preferencje moralne wielu ludziom, którzy nie podzielają tych samych ideologii.

Wierność swoim przekonaniom moralnym jest ważną częścią ludzkiego dobrobytu i poczucia własnej wartości, dlatego ryzykujemy nieumyślne złamanie moralnej zasady naszych społeczeństw i niekorzystne wpłynięcie na dobrobyt innych ludzi.

Jestem współautorem pracy z dr Andersem Sandbergiem, ekspertem w dziedzinie etyki i technologii. W artykule zasugerowaliśmy, że możemy obejść problem różnych zasad, opracowując kod, który byłby zgodny z konsekwencjalistycznym lub deontologicznym rozumowaniem w scenariuszu z wózkiem.

Pasażer mógł wybrać wybraną zasadę na początku podróży. Zachowałoby to podstawę szacunku dla czynników moralnych, która pozwala systemowi etycznemu i prawnemu naszego społeczeństwa radzić sobie z dwoma różnymi sposobami podejmowania przez ludzi decyzji dotyczących problemów wózków.

Nie możemy mieć fragmentu kodu, który decyduje za nas między teoriami. Wydaje się, że ludzkie preferencje moralne są wynikiem uczenia się poprzez pochwałę i potępienie, a nie logikę.

Na razie musimy pozostawić ten wybór ludzkim użytkownikom technologii. Dopóki nie staną się pełnoprawnymi agentami moralnymi, autonomiczne samochody będą działać jak to, co Sandberg nazwał „moralnym zastępcą” dla własnej ludzkiej moralności użytkowników. Innymi słowy, wybierzemy, jak zdecydują się działać.

Źródło: Heather Bradshaw-Martin, Science Focus

Zdjęcie: Unsplash

Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x