Spodziewaj się orwellowskiej przyszłości jeśli sztuczna inteligencja nie będzie trzymana w ryzach – mówi szef Microsoftu

Według prezesa Microsoftu, Brada Smitha, sztuczna inteligencja może doprowadzić do orwellowskiej przyszłości, jeśli wkrótce nie zostaną wprowadzone prawa chroniące społeczeństwo.

Smith skomentował program informacyjny BBC „Panorama” 26 maja, podczas odcinka poświęconego potencjalnym zagrożeniom związanym ze sztuczną inteligencją (AI) oraz wyścigiem technologicznym między Stanami Zjednoczonymi a Chinami. Ostrzeżenie pojawia się około miesiąc po tym, jak Unia Europejska opublikowała projekty przepisów próbujących ustalić limity wykorzystania sztucznej inteligencji. Niewiele jest podobnych wysiłków w Stanach Zjednoczonych, gdzie ustawodawstwo w dużej mierze koncentruje się na ograniczaniu regulacji i promowaniu sztucznej inteligencji do celów bezpieczeństwa narodowego.

„Ciągle przypominają mi się lekcje George’a Orwella z jego książki „1984” — powiedział Smith. „Podstawowa historia dotyczyła rządu, który mógł widzieć wszystko, co wszyscy robili, i słyszeć wszystko, co wszyscy mówili przez cały czas. Cóż, to się nie wydarzyło w 1984 roku, ale jeśli nie będziemy ostrożni, może się to wydarzyć w 2024 r.”

Narzędzie z ciemną stroną

Sztuczna inteligencja to źle zdefiniowany termin, ale ogólnie odnosi się do maszyn, które mogą uczyć się lub rozwiązywać problemy automatycznie, bez kierowania przez operatora. Wiele programów AI opiera się dziś na uczeniu maszynowym, zestawie metod obliczeniowych wykorzystywanych do rozpoznawania wzorców w dużych ilościach danych, a następnie zastosowania tych wzorców do nowych danych.

Eksperci twierdzą, że jest to niezwykle potężne narzędzie, które zostało zastosowane do wszystkiego, od podstawowej teorii matematycznej po symulacje wczesnego wszechświata, ale może być niebezpieczne w przypadku wykorzystania AI do danych społecznych. Dane na temat ludzi są “fabrycznie instalowane” z ludzkimi uprzedzeniami. Na przykład niedawne badanie opublikowane w czasopiśmie JAMA Psychiatry wykazało, że algorytmy mające na celu przewidywanie ryzyka samobójstwa działały znacznie gorzej u osób rasy czarnej, Indian i rodzimych mieszkańców Alaski niż u osób białych, częściowo dlatego, że w systemie medycznym było mniej pacjentów kolorowych, a częściowo ponieważ pacjenci kolorowi byli przede wszystkim mniej podatni na leczenie i odpowiednie diagnozy, co oznacza, że ​​oryginalne dane były wypaczone.

Stronniczości nigdy nie da się całkowicie uniknąć, ale można się nią zająć, powiedział Bernhardt Trout, profesor inżynierii chemicznej w Massachusetts Institute of Technology, który prowadzi zajęcia na temat sztucznej inteligencji i etyki. Dobrą wiadomością, jak powiedział Trout, jest to, że zmniejszenie stronniczości jest najwyższym priorytetem zarówno w środowisku akademickim, jak i w branży sztucznej inteligencji.

„Ludzie są bardzo świadomi tego problemu w społeczności i starają się rozwiązać ten problem” – powiedział.

Nadzór rządowy

Z drugiej strony, niewłaściwe wykorzystanie sztucznej inteligencji jest prawdopodobnie większym wyzwaniem, powiedział Trout. To, w jaki sposób wykorzystuje się sztuczną inteligencję, to nie tylko kwestia techniczna; to tak samo kwestia polityczna i moralna. A te wartości różnią się znacznie w zależności od kraju.

„Rozpoznawanie twarzy jest pod pewnymi względami niezwykle potężnym narzędziem do robienia dobrych rzeczy, ale jeśli chcesz obserwować wszystkich na ulicy, jeśli chcesz zobaczyć wszystkich, którzy pojawiają się na demonstracji, możesz wykorzystać sztuczną inteligencję do pracy” – powiedział Smith. BBC. „I widzimy to w niektórych częściach świata”.

Chiny już zaczęły wykorzystywać technologię sztucznej inteligencji zarówno w przyziemny, jak i alarmujący sposób. Na przykład rozpoznawanie twarzy jest używane w niektórych miastach zamiast biletów w autobusach i pociągach. Ale oznacza to również, że rząd ma dostęp do obfitych danych na temat ruchów i interakcji obywatelskich, jak stwierdzono „Panorama” BBC. Amerykańska grupa adwokacka IPVM, która koncentruje się na “etyce nadzoru wideo”, znalazła dokumenty sugerujące plany w Chinach dotyczące opracowania systemu o nazwie „Jedna osoba, jeden plik”, który gromadziłby działania, relacje i przekonania polityczne każdego mieszkańca w aktach rządowych.

„Nie sądzę, żeby Orwell kiedykolwiek wyobrażał sobie, że rząd będzie zdolny do tego rodzaju analiz” – powiedział BBC Conor Healy, dyrektor IPVM.

Słynna powieść Orwella „1984” opisuje społeczeństwo, w którym rząd obserwuje obywateli przez „teleekrany”, nawet w domu. Ale Orwell nie wyobrażał sobie możliwości, jakie sztuczna inteligencja dodałaby do inwigilacji — w jego powieści bohaterowie znajdują sposoby na uniknięcie nadzoru wideo, tylko po to, by zostać wydanym przez współobywateli.

W autonomicznym regionie Xinjiang, gdzie mniejszość ujgurska oskarżyła chiński rząd o tortury i ludobójstwo kulturowe, sztuczna inteligencja jest wykorzystywana do śledzenia ludzi, a nawet do oceny ich winy, gdy są aresztowani i przesłuchiwani, jak ustaliła BBC. Jest to przykład technologii ułatwiającej powszechne łamanie praw człowieka: Rada Stosunków Międzynarodowych szacuje, że od 2017 r. milion Ujgurów zostało przymusowo przetrzymywanych w obozach „reedukacyjnych”, zazwyczaj bez żadnych zarzutów karnych.

Zepchnięcie

Potencjalne regulacje UE dotyczące sztucznej inteligencji zakazywałyby systemów, które próbują ominąć wolną wolę użytkowników lub systemów, które umożliwiają rządowi wszelkiego rodzaju „ocenę społeczną”. Inne rodzaje aplikacji są uważane za „wysokie ryzyko” i muszą spełniać wymogi przejrzystości, bezpieczeństwa i nadzoru, aby mogły zostać wprowadzone na rynek. Należą do nich takie rzeczy, jak sztuczna inteligencja dla infrastruktury krytycznej, egzekwowanie prawa, kontrola granic i identyfikacja biometryczna, taka jak systemy identyfikacji twarzy lub głosu. Inne systemy, takie jak chatboty do obsługi klienta lub gry wideo obsługujące sztuczną inteligencję, są uważane za systemy o niskim ryzyku i nie podlegają ścisłej kontroli.

Natomiast zainteresowanie rządu federalnego USA sztuczną inteligencją w dużej mierze koncentrowało się na zachęcaniu do rozwoju sztucznej inteligencji do celów bezpieczeństwa narodowego i wojskowych. To skupienie czasami budziło kontrowersje. Na przykład w 2018 r. Google anulowało swój program Project Maven – proejtk realizowany w współpracy z Pentagonem – który miałby automatycznie analizować nagrania wideo zrobione przez samoloty wojskowe i drony. Firma argumentowała, że celem było jedynie oznaczanie obiektów do oceny przez człowieka, ale krytycy obawiali się, że technologia może zostać wykorzystana do automatycznego namierzania ludzi i miejsc do ataków dronów. Sygnaliści [inaczej demaskator (ang. whistleblower, dosł. „człowiek dmuchający w gwizdek”) – osoba nagłaśniająca działalność, która według niej jest najprawdopodobniej nielegalna lub nieuczciwa.] ujawnili projekt, co ostatecznie doprowadziło do presji opinii publicznej na tyle silnej, że firma anulowała ten projekt.

Niemniej jednak Pentagon wydaje obecnie ponad 1 miliard dolarów rocznie na kontrakty związane ze sztuczną inteligencję, a zastosowania uczenia maszynowego na potrzeby wojska i bezpieczeństwa narodowego są nieuniknione, biorąc pod uwagę entuzjazm Chin do osiągnięcia dominacji w sferze AI, powiedział Trout.

„Nie można zrobić zbyt wiele, aby powstrzymać chęć obcego kraju do rozwijania tych technologii” – powiedział Trout. „A zatem najlepsze, co możesz zrobić, to samodzielnie je rozwijać, aby móc je zrozumieć i chronić siebie, będąc jednocześnie moralnym przywódcą [ang. moral leader]”.

W międzyczasie wysiłki na rzecz ograniczenia sztucznej inteligencji w USA są prowadzone przez władze stanowe i lokalne. Największy hrabstwo stanu Waszyngton, King County, właśnie zakazał rządowi używania oprogramowania do rozpoznawania twarzy. Jest to pierwsze hrabstwo w USA, które to zrobiło, miasto San Francisco wykonało ten sam ruch w 2019 roku, a następnie kilka innych miast.

Zdarzały się już przypadki oprogramowania do rozpoznawania twarzy prowadzące do fałszywych aresztowań. W czerwcu 2020 roku czarnoskóry mężczyzna w Detroit został aresztowany i przetrzymywany przez 30 godzin w areszcie, ponieważ algorytm błędnie zidentyfikował go jako podejrzanego w sprawie kradzieży sklepowej. Badanie przeprowadzone w 2019 r. przez National Institute of Standards and Technology wykazało, że oprogramowanie zwracało więcej fałszywych dopasowań dla osób czarnoskórych i Azjatów w porównaniu z osobami białymi, co oznacza, że ​​technologia prawdopodobnie pogłębi rozbieżności w działaniach policyjnych wobec osób kolorowych.

„Jeśli teraz nie wprowadzimy w życie przepisów, które będą chronić społeczeństwo w przyszłości, przekonamy się, że technologia będzie dalej pędzić naprzód” – powiedział Smith – „i będzie coraz trudniej ją okiełznać”.

Cały dokument jest dostępny na YouTube.

Źródło: Stephanie Pappas

Europe fit for the Digital Age: Commission proposes new rules and actions for excellence and trust in Artificial Intelligence

Racial/Ethnic Disparities in the Performance of Prediction Models for Death by Suicide After Mental Health Visits

Face recognition applied to parts of public transport system in China’s ‘data valley’

Uyghur exiles describe forced abortions, torture in Xinjiang

What is Project Maven? The Pentagon AI project Google employees want out of

New analysis finds Pentagon annual spending on AI contracts has grown to $1.4B

Washington’s largest county bans government use of facial recognition software

San Francisco Bans Facial Recognition Technology

Black man wrongfully arrested because of incorrect facial recognition

NIST Study Evaluates Effects of Race, Age, Sex on Face Recognition Software

Zdjęcie: Gilles Sabrie/Bloomberg via Getty Images

Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x