Jeśli robot jest świadomy czy można go wyłączyć? Moralne konsekwencje tworzenia prawdziwych sztucznej inteligencji

W „Star Trek: The Next Generation” w epizodzie „The Measure of a Man”, Data, android członka załogi Enterprise, ma zostać rozebrany do celów badawczych, chyba że kapitan Picard stwierdzi, że Data zasługuje na takie same prawa jak człowiek. Naturalnie pojawia się pytanie: na jakiej podstawie coś ma prawa? Co daje jednostce pozycję moralną?

Filozof Peter Singer twierdzi, że stworzenia, które mogą odczuwać ból lub cierpieć, mają prawa do pozycji moralnej [w etyce, status podmiotu, na mocy którego zasługuje on na uwzględnienie przy podejmowaniu decyzji moralnych]. Twierdzi, że zwierzęta nie będące ludźmi mają moralną pozycję, ponieważ mogą odczuwać ból i cierpieć. Ograniczenie pozycji moralnej do ludzi byłoby formą dyskryminacji gatunkowej, czymś w rodzaju rasizmu i seksizmu.

Nie popierając argumentacji Singera, moglibyśmy się zastanawiać, czy można ją rozszerzyć na robota androida, takiego jak Data. Wymagałoby to, aby Data mógł odczuwać ból lub cierpieć. A to, jak odpowiesz, zależy od tego, jak rozumiesz świadomość i inteligencję.

W miarę jak prawdziwa technologia sztucznej inteligencji rozwija się w kierunku wyimaginowanych wersji Hollywood, kwestia pozycji moralnej staje się coraz ważniejsza. Jeśli SI mają moralne stanowisko, filozofowie rozumują, że może z tego wynikać, że mają prawo do życia. Oznacza to, że nie możesz ich po prostu rozmontować, a może to również oznaczać, że ludzie nie powinni ingerować w ich cele.

Dwa smaki inteligencji i test

Maszyna szachowa IBM Deep Blue została pomyślnie przeszkolona, ​​aby pokonać arcymistrza Gary’ego Kasparowa. Ale nie mogła zrobić nic innego. Ten komputer posiadał tzw. inteligencję specyficzną dla domeny.

Z drugiej strony istnieje rodzaj inteligencji, który pozwala na dobre robienie różnych rzeczy. Nazywa się to ogólną teorią rozwoju [Domain-general learning]. To pozwala ludziom gotować, jeździć na nartach i wychowywać dzieci – zadania, które są ze sobą powiązane, ale też bardzo różne.

Sztuczna inteligencja ogólna, AGI, to termin określający maszyny, które mają ogólną teorie rozwoju. Prawdopodobnie żadna maszyna nie wykazała jeszcze takiej inteligencji. Tego lata startup o nazwie OPENAI wydał nową wersję swojego statystycznego modelu językowowego [Language model] Generative Pre-Training. GPT-3 to system przetwarzania języka naturalnego, wyszkolony do czytania i pisania, aby był łatwo zrozumiały dla ludzi.

Zwrócił natychmiastową uwagę, nie tylko ze względu na imponującą zdolność do naśladowania stylistycznych zawijasów i zestawiania wiarygodnych treści, ale także ze względu na to, jak bardzo rozwinęła się od poprzedniej wersji. Pomimo tej imponującej wydajności GPT-3 tak naprawdę nie wie nic poza tym, jak łączyć słowa na różne sposoby. AGI pozostaje dość daleko.

Nazwany na cześć pioniera badacza AI Alana Turinga, test Turinga pomaga określić, kiedy sztuczna inteligencja jest inteligentna. Czy osoba rozmawiająca z ukrytą sztuczną inteligencją może stwierdzić, czy jest to sztuczna inteligencja czy człowiek? Jeśli nie może, to ze wszystkich praktycznych powodów sztuczna inteligencja jest inteligentna. Ale ten test nie mówi nic o tym, czy sztuczna inteligencja może być świadoma.

Dwa rodzaje świadomości

Świadomość składa się z dwóch części. Po pierwsze, istnieje aspekt doświadczenia, zmysłowa część świadomości. Filozofowie nazywają to fenomenalną świadomością. Chodzi o to, jak doświadczasz zjawiska, takiego jak wąchanie róży lub ból.

W przeciwieństwie do tego istnieje również świadomość dostępu [access consciousness]. To zdolność do raportowania, rozumowania, zachowywania się i działania w sposób skoordynowany i reagujący na bodźce oparte na celach. Na przykład, kiedy podajesz piłkę koledze grającemu na bramkę, odpowiadam na bodźce wizualne, działając zgodnie z wcześniejsza nauką i dążąc do celu określonego przez reguły gry. Podawanie jest automatyczne, bez świadomego namysłu, w trakcie gry.

Ślepowidzenie [ zespół widzenia mimo ślepoty ] dobrze ilustruje różnicę między dwoma typami świadomości. Ktoś z tym schorzeniem neurologicznym może na przykład zgłosić, że nie widzi niczego po lewej stronie pola widzenia. Ale jeśli zostaną poproszeni o podniesienie pióra z szeregu obiektów po lewej stronie ich pola widzenia, mogą to niezawodnie zrobić. Nie widzą pióra, ale mogą go podnieść, gdy zostaną o to poproszeni – przykład dostępu do świadomości bez świadomości fenomenalnej [phenomenal consciousness].

Dane to android. Jak te różnice odnoszą się do niego? Dylemat dotyczący Data

Android Data pokazuje, że jest samoświadomy, ponieważ może monitorować, na przykład, czy jest optymalnie naładowany lub czy ramie robota jest wewnętrznie uszkodzone.

Data jest również inteligentny w sensie ogólnym. Robi wiele różnych rzeczy na wysokim poziomie mistrzostwa. Potrafi latać Enterprise, przyjmować rozkazy od kapitana Picarda i rozmawiać z nim o wyborze najlepszej drogi.

Może także grać w pokera ze swoimi kolegami ze statku, gotować, omawiać aktualne problemy z bliskimi przyjaciółmi, walczyć z wrogami na obcych planetach i angażować się w różne formy fizycznej pracy. Data ma dostęp do świadomości. Najwyraźniej zdałby test Turinga.

Data jednak najprawdopodobniej nie ma fenomenalnej świadomości – nie zachwyca się np. zapachem róż ani nie odczuwa bólu. Uosabia ponadwymiarową wersję ślepowidzenia. Jest samoświadomy i ma dostęp do świadomości – może chwycić pióro – ale we wszystkich zmysłach brakuje mu fenomenalnej świadomości.

Teraz, jeśli Data nie odczuwa bólu, przynajmniej jeden z powodów, który dla Singer uzasadnia moralną pozycję stworzenia, nie jest spełniony. Ale Data może spełnić inny warunek, aby móc cierpieć, nawet bez odczuwania bólu. Cierpienie może nie wymagać fenomenalnej świadomości, tak jak w istocie ból.

Na przykład, co by było, gdyby cierpienie zostało również zdefiniowane jako idea powstrzymania się od dążenia do słusznej sprawy bez wyrządzania krzywdy innym? Załóżmy, że celem Daty jest uratowanie swojej załogi, ale nie może do niej dotrzeć z powodu uszkodzenia jednej z jego kończyn. Ograniczenie funkcjonowania Daty, które powstrzymuje go przed uratowaniem kolegi z załogi, jest rodzajem niefenomenalnego cierpienia. Wolałby ocalić członka załogi i byłoby lepiej, gdyby to zrobił.

W odcinku pojawia się pytanie, czy Data jest samoświadomy – nie ma co do tego wątpliwości. Nie ma też wątpliwości, czy jest inteligentny – łatwo udowadnia, że ​​jest w sensie ogólnym. Nie jest jasne, czy jest fenomenalnie świadomy. Data nie jest demontowany, ponieważ ostatecznie ludzcy sędziowie nie mogą zgodzić się co do znaczenia świadomości dla pozycji moralnej.

Czy SI powinna uzyskać pozycję moralną?

Data jest miły – działa na rzecz dobrego samopoczucia swoich kolegów z załogi i tych, których spotyka na obcych planetach. Wykonuje rozkazy ludzi i wydaje się mało prawdopodobne, aby ich skrzywdził, i wydaje się, że chroni własne życie. Z tych powodów wydaje się łatwiejszy do zaakceptowania w królestwie rzeczy, które mają status moralny.

A co ze Skynetem w filmach „Terminator” ? Lub niedawnej obawy wyrażone przez Elon Musk o tym, że AI jest bardziej niebezpieczne niż użyć broni jądrowej, a Stephen Hawkings uważał ze AI zakończy ludzkości ?

Istoty ludzkie nie tracą prawa do pozycji moralnej tylko dlatego, że działają wbrew interesom innej osoby. W ten sam sposób nie można automatycznie powiedzieć, że tylko dlatego, że sztuczna inteligencja działa wbrew interesom ludzkości lub innej sztucznej inteligencji, nie ma pozycji moralnej. Możesz być usprawiedliwiony w walce przeciwko SI, takiej jak Skynet, ale to nie odbiera jej pozycji moralnej. Jeśli przyznaje się rangę moralną z racji zdolności do niefenomenalnego cierpienia, to Skynet i Data otrzymują ją, nawet jeśli tylko Data chce pomóc ludziom.

Nie ma jeszcze maszyn, ze sztuczna inteligencją ogólną. Ale teraz jest czas, aby zastanowić się, co trzeba by zrobić, aby nadać im pozycję moralną. To, w jaki sposób ludzkość zdecyduje się odpowiedzieć na pytanie o pozycję moralną istot niebiologicznych, będzie miało duże znaczenie dla tego, jak będziemy postępować z przyszłymi sztucznymi inteligencjami – czy to miłymi i pomocnymi jak Data, czy nastawionymi na zniszczenie, jak Skynet.

Źródło: Anand Vaidya

If a robot is conscious, is it OK to turn it off? The moral implications of building true AIs

Zdjęcia: CBS

Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x