"Na początek należy przestać mówić i zacząć robić"  Walt Disney


Moralność Maszyny (III)


Dobrzy i źli sztuczni agenci?


Nadchodzą systemy autonomiczne, czy ludziom się to podoba, czy nie. Czy będą etyczne? Czy będą dobre? Co w tym kontekście rozumiemy przez "dobre"? Nie chodzi tylko o bycie instrumentalnie dobrym-dobrym w odniesieniu do określonego celu. Deep Blue to dobry komputer do gry w szachy, ponieważ wygrywa w szachy, ale nie o to nam chodzi. Nie mamy też na myśli tego, w jakim sensie dobre odkurzacze czyszczą podłogi, nawet jeśli są robotami i robią to przy minimalnym nadzorze człowieka. Te "towary" są mierzone pod kątem określonych celów projektantów i użytkowników. Tego rodzaju dobrego zachowania, które może być wymagane od systemów autonomicznych, nie da się tak łatwo określić. Czy dobry robot wielofunkcyjny powinien otwierać drzwi nieznajomym, nawet jeśli oznacza to opóźnienie dla właściciela robota? (Czy powinno to być ustawienie określone przez właściciela?) Czy dobry niezależny agent powinien ostrzegać nadzorcę, jeśli nie może on podjąć działania bez wyrządzenia ludziom krzywdy? (Jeśli tak, czy jest dostatecznie autonomiczna?) Kiedy mówimy o dobru w tym sensie, wkraczamy w dziedzinę etyki. Wprowadzenie sztucznych czynników do domeny etyki nie oznacza po prostu stwierdzenia, że mogą wyrządzić krzywdę. Spadające drzewa powodują szkody, ale to nie oznacza, że wchodzą one w zakres etyki. Agenci moralni monitorują i regulują swoje zachowanie w świetle szkód, jakie mogą spowodować ich działania lub obowiązków, których mogą zaniedbać. Ludzie nie powinni oczekiwać niczego innego od AMA. Dobry czynnik moralny to taki, który potrafi wykryć możliwość krzywdy lub zaniedbania obowiązków i może podjąć kroki w celu uniknięcia lub zminimalizowania takich niepożądanych skutków. Istnieją dwie drogi do osiągnięcia tego: Po pierwsze, programista może być w stanie przewidzieć możliwe kierunki działań i zapewnić zasady prowadzące do pożądanego rezultatu w zakresie okoliczności, w których AMA ma zostać wdrożone. Alternatywnie, programista może zbudować bardziej otwarty system, który zbiera informacje, próbuje przewidzieć konsekwencje swoich działań i dostosowuje reakcję na wyzwanie. Taki system może nawet zaskoczyć programistów pozornie nowatorskimi lub kreatywnymi rozwiązaniami etycznych wyzwań. Być może nawet najbardziej wyrafinowani AMA nigdy nie będą tak naprawdę agentami moralnymi w tym samym sensie, w jakim istoty ludzkie są agentami moralnymi. Ale gdziekolwiek pojawia się pytanie, czy maszyna może być rzeczywiście etyczna (lub nawet prawdziwie autonomiczna), pozostaje wyzwanie inżynieryjne: jak sprawić, by sztuczni agenci działali tak, jakby byli agentami moralnymi. Jeśli mają być zaufane maszyny wielofunkcyjne, działające bez przeszkód od ich projektantów lub właścicieli i zaprogramowane do elastycznego reagowania w środowiskach świata rzeczywistego lub wirtualnego, należy mieć pewność, że ich zachowanie spełnia odpowiednie normy. Wykracza to poza tradycyjne bezpieczeństwo produktów. Oczywiście roboty, które powodują zwarcia i powodują pożary, nie są bardziej tolerowane niż tostery, które to robią. Jeśli jednak system autonomiczny ma zminimalizować szkody, musi być także "świadomy" możliwych szkodliwych konsekwencji swoich działań i musi wybierać swoje działania w świetle tej "wiedzy", nawet jeśli te określenia są tylko metaforycznie stosowane do maszyn


Moralność Maszyny (II)


Dlaczego moralność maszynowa?


Kierowcy samochodów i inżynierowie robotów

Uciekający trolejbus zbliża się do rozwidlenia torów. Jeśli trolejbus będzie mógł poruszać się po swoim obecnym torze, zginie pięcioosobowa załoga. Jeśli maszynista skieruje pokjazd na drugi tor, samotny pracownik zostanie zabity. Gdybyś prowadził ten trolejbus, co byś zrobił? Co zrobiłby komputer lub robot prowadzący ten trolebus? Walizki na kółkach, wprowadzone po raz pierwszy przez filozofa Filippę Foot w 1967 r., są podstawą wstępnych kursów etyki. W ciągu ostatnich czterech dekad mnożyły się walizki na kółkach. A co, jeśli to obserwator, a nie kierowca, ma moc przełączenia przełącznika i zmiany kursu wózka? A co, jeśli nie ma przełącznika, ale obserwator mógłby powstrzymać trolejbus przed wjechaniem na pięciu pracowników, zrzucając bardzo dużego człowieka z mostu na tory i wysyłając go na śmierć? Te warianty wywołują różne intuicyjne odpowiedzi. Niektórzy ludzie spuszczją na kierowców inne obowiązki niż osoby postronne, zobowiązując ich do działania, mimo że osoby postronne nie miałyby takiego obowiązku. Wiele osób uważa, że pomysł przewrócenia dużego mężczyzny na tor - co stało się znane jako "grubasowa" wersja dylematu - jest o wiele bardziej kontrowersyjny niż zmiana przełącznika, mimo że liczba ciał jest ta sama. Sprawy trolejbusowe stały się również przedmiotem badań psychologów i neuronaukowców. Joshua Greene i jego koledzy przeprowadzili badanie mózgu pokazujące, że wersja "grubasa" wywołuje znacznie silniejszą reakcję w ośrodkach przetwarzania emocji w mózgu niż wersja "przełączająca ścieżki". Badania naukowe odpowiedzi ludzi na przypadki wózków nie dają odpowiedzi na podstawowe pytania filozoficzne dotyczące dobra i zła. Jednak takie badania wskazują na złożoność ludzkich odpowiedzi na pytania natury etycznej. Biorąc pod uwagę pojawienie się nowoczesnych systemów pociągów "bez maszynisty", które są już powszechne na lotniskach i zaczynają pojawiać się w bardziej skomplikowanych sytuacjach, na przykład w metrze londyńskim oraz w metrze w Paryżu i Kopenhadze, walizki mogą być jedną z pierwszych granic dla sztucznej moralność? Systemy bez kierowcy sprawiają, że maszyny podejmują w ułamku sekundy decyzje, które mogą mieć konsekwencje dla życia lub śmierci. Wraz ze wzrostem złożoności sieci kolejowej rośnie również prawdopodobieństwo dylematów podobnych do podstawowego przypadku wózka. Na przykład, jak zautomatyzowane systemy powinny obliczyć, gdzie kierować pociągiem, który wymknął się spod kontroli? Inżynierowie oczywiście twierdzą, że systemy są w rzeczywistości bezpieczniejsze niż ludzkie sterowniki. Ale opinia publiczna zawsze była sceptyczna. Londyńskie metro po raz pierwszy testowało pociągi bez maszynisty ponad cztery dekady temu, w kwietniu 1964 r. W tamtych czasach pociągi bez maszynisty napotykały polityczny opór ze strony pracowników kolei, którzy wierzyli, że ich miejsca pracy są zagrożone, oraz pasażerów, którzy nie byli do końca przekonani co do roszczeń dotyczących bezpieczeństwa. Z tych powodów London Transport nadal dawał maszynistom odpowiedzialność za prowadzenie pociągów przez stacje. Nastroje się jednak zmieniają i pociągi Central Line w Londynie są obecnie sterowane przez stacje przez komputery, mimo że ludzcy kierowcy pozostają w kabinie w roli "nadzorcy". Większość pasażerów prawdopodobnie uważa, że ludzcy kierowcy są bardziej elastyczni i potrafią radzić sobie w sytuacjach awaryjnych niż skomputeryzowani kontrolerzy. Ale to może być ludzka pycha. Morten Sondergaard, odpowiedzialny za bezpieczeństwo kopenhaskiego metra, twierdzi, że "pociągi automatyczne są bezpieczne i bardziej elastyczne w sytuacjach awaryjnych ze względu na szybkość, z jaką można zmieniać rozkłady jazdy". Niemniej mimo postępu technicznego pasażerowie pozostają sceptyczni. Paryscy planiści metra twierdzą, że jedyne problemy związane z pociągami bez maszynisty są "polityczne, a nie techniczne". Bez wątpienia część oporu można pokonać, po prostu instalując pociągi bez maszynisty i ustanawiając rekord bezpieczeństwa. Jesteśmy jednak pewni, że większość pasażerów nadal myślałaby, że istnieją sytuacje kryzysowe wykraczające poza zakres jakiegokolwiek programowania, w których preferowana byłaby ludzka ocena. W niektórych z tych sytuacji właściwy osąd wymagałby rozważań etycznych, ale dzisiejsze pociągi bez maszynisty są oczywiście nieświadome etyki. Czy inżynierowie oprogramowania mogą i powinni próbować ulepszyć swoje systemy oprogramowania, aby wyraźnie odzwierciedlały wymiary etyczne? Uważamy, że nie można właściwie odpowiedzieć na to pytanie bez lepszego zrozumienia, co jest możliwe w dziedzinie sztucznej moralności. Z pozycji niewiedzy łatwo jest argumentować, że cel sztucznej moralnej sprawczości jest niemożliwy do osiągnięcia. Ale jakie są dokładnie wyzwania i przeszkody we wdrażaniu sztucznej moralności?

Istnieje potrzeba poważnej dyskusji na ten temat. Rewolucja komputerowa nadal promuje poleganie na automatyzacji, a systemy autonomiczne w coraz większym stopniu odpowiadają za różnorodne decyzje mające konsekwencje etyczne. Jak komfortowo powinno być oddanie swojego życia i dobrobytu w ręce systemów ignorujących etycznie? Są tu pociągi bez maszynisty. Znacznie bardziej odległe technologicznie są (ro)boty, które potrafią dostrzec, że wrzucenie dużego człowieka na tory może uratować pięć istnień i fizycznie przeprowadzić taką akcję. W międzyczasie zagrożenie atakiem terrorystycznym doprowadziło do zwiększenia zdalnej obserwacji nie tylko rozjazdów kolejowych, ale także mostów, tuneli i nienadzorowanych odcinków torów. Trwają prace nad systemami monitoringu lotnisk, które skanują twarze pasażerów i próbują dopasować je do bazy danych znanych terrorystów. Pozornie systemy te mają na celu ostrzeganie przełożonych o wystąpieniu nietypowej aktywności. Można jednak łatwo wyobrazić sobie sytuację awaryjną, w której system mógłby działać automatycznie w celu przekierowania pociągu lub zamknięcia części terminalu lotniska, gdy nadzorca nie ma wystarczająco dużo czasu, aby sprawdzić i przeciwdziałać działaniu. Załóżmy, że pociąg bez maszynisty jest w stanie zidentyfikować, że pięć osób na jednym torze to pracownicy kolei, a ta na drugim to dziecko.

Czy system powinien uwzględniać te informacje w swojej decyzji? W miarę wzbogacania się informacji dostępnych dla zautomatyzowanych systemów, dylematy moralne, przed którymi staje, staną się coraz bardziej złożone. Wyobraź sobie komputer, który rozpoznaje, że samotna osoba na jednym torze nie jest pracownikiem kolei, ale wybitnym obywatelem, od którego zależy dobrobyt i utrzymanie dużej liczby rodzin. Jak bardzo ludzie chcieliby, aby ich komputery rozważały konsekwencje działań, które rozważają? Odkładając na bok walizki, inżynierowie często myślą, że jeśli bot (ro) napotka trudną sytuację, powinien po prostu zatrzymać się i poczekać, aż człowiek rozwiąże problem. Joe Engelberger, "ojciec" robotyki przemysłowej, był jednym z zainteresowanych opracowaniem robotów usługowych, które są w stanie zaspokoić potrzeby osób starszych i innych osób w domu. Wendell Wallach zapytał go, czy robot usługowy w domu potrzebuje moralnych zdolności podejmowania decyzji. Czy robot nie musiałby rozróżniać, czy przeszkodą na swojej drodze jest dziecko, zwierzak, czy coś w rodzaju pustej papierowej torby i na podstawie oceny wybrać działanie? Engelberger uważał, że taki system nie potrzebuje zdolności do refleksji nad swoimi działaniami. "Jeśli coś stoi na przeszkodzie, to po prostu się zatrzymuje" - powiedział. Oczywiście tego rodzaju bezczynność może być również problematyczna, kolidując z obowiązkami lub zadaniami określonymi dla robota usługowego, np. Dostarczanie leków co kilka godzin obsługiwanej osobie. Dla inżyniera myślącego o własnej odpowiedzialności bezczynność może wydawać się bardziej rozsądnym rozwiązaniem. W etyce istnieje długa tradycja uważania działań za bardziej winne niż zaniechania. (Pomyśl na przykład o rzymskokatolickim rozróżnieniu między "grzechami zaniedbania" a bardziej poważnymi "grzechami popełnienia przestępstwa"). Wrócimy do kwestii odpowiedzialności na koniec, ale główny punkt dotyczący teraz jest tak, że nawet gdyby istniało moralne rozróżnienie między działaniem a biernością, projektant AMA nie mógłby po prostu wybrać bezczynności jako substytutu dobrego działania.


Moralność Maszyny



W laboratorium obliczeń afektywnych w Massachusetts Institute of Technology (MIT), naukowcy projektują komputery, które potrafią odczytywać ludzkie emocje. Instytucje finansowe wdrożyły światowe sieci komputerowe, które co minutę oceniają i zatwierdzają lub odrzucają miliony transakcji. Robotycy w Japonii, Europie i Stanach Zjednoczonych opracowują roboty usługowe do opieki nad osobami starszymi i niepełnosprawnymi. Japońscy naukowcy pracują również nad tym, aby androidy wyglądały na nie do odróżnienia od ludzi. Rząd Korei Południowej ogłosił, że zamierza umieścić robota w każdym domu do 2020 roku. We współpracy z firmą Samsung opracowuje także roboty do przenoszenia broni, aby chronić granicę z Koreą Północną. W międzyczasie działalność człowieka jest ułatwiana, monitorowana i analizowana przez chipy komputerowe w każdym możliwym urządzeniu, od samochodów po pojemniki na śmieci, oraz przez "boty" programowe w każdym możliwym do wyobrażenia środowisku wirtualnym, od surfowania po sieci po zakupy online. Dane gromadzone przez te (ro)boty - termin, którego będziemy używać do określenia zarówno robotów fizycznych, jak i agentów oprogramowania - są wykorzystywane do celów komercyjnych, rządowych i medycznych. Wszystkie te zmiany zbiegają się w kierunku tworzenia (ro)botów, których niezależność od bezpośredniego nadzoru człowieka i których potencjalny wpływ na dobrostan ludzi jest kwestią naukową. Izaak Asimow, ponad pięćdziesiąt lat temu, przewidział potrzebę zasad etycznych, które będą kierować zachowaniem robotów. Jego Trzy prawa robotyki są tym, o czym ludzie myślą w pierwszej kolejności, gdy myślą o moralności maszyn.

1. Robot nie może zranić człowieka ani przez bezczynność pozwolić aby człowieka, został skrzywdzony.
2. Robot musi wykonywać rozkazy wydawane mu przez ludzi, chyba że takie rozkazy byłyby sprzeczne z pierwszym prawem.
3. Robot musi chronić swoje własne istnienie, o ile taka ochrona nie jest sprzeczna z pierwszym lub drugim prawem.

Asimov jednak pisał historie. Nie stawił czoła wyzwaniu, przed którym stoją dzisiejsi inżynierowie: zapewnić, że budowane przez nich systemy są korzystne dla ludzkości i nie wyrządzają ludziom krzywdy. To, czy Trzy Prawa Asimova są naprawdę pomocne w zapewnieniu, że (ro)boty będą działać moralnie, jest jednym z pytań, które rozważymy . Przewidujemy, że w ciągu najbliższych kilku lat nastąpi katastrofalny incydent spowodowany przez system komputerowy podejmujący decyzję niezależną od ludzkiego nadzoru. Już w październiku 2007 r. półautonomiczne działko robotyczne rozmieszczone przez armię południowoafrykańską uległo awarii, zabijając 9 żołnierzy i raniąc 14 innych - chociaż wczesne raporty zawierały sprzeczne informacje o tym, czy była to awaria oprogramowania czy sprzętu. Potencjał jeszcze większej katastrofy wzrośnie, gdy takie maszyny staną się w pełni autonomiczne. Nawet jeśli nadchodząca klęska nie zabije tylu ludzi, co akty terrorystyczne z 11 września, sprowokuje stosunkowo szeroki zakres reakcji politycznych. Reakcje te będą obejmowały wezwania do zwiększenia wydatków na poprawę technologii, aby wezwać do całkowitego zakazu tej technologii (jeśli nie otwartej "wojny z robotami"). Troska o bezpieczeństwo i korzyści społeczne zawsze była na czele inżynierii. Ale dzisiejsze systemy zbliżają się do poziomu złożoności, który, jak twierdzimy, wymaga od nich podejmowania decyzji moralnych - zaprogramowania ich za pomocą "etycznych procedur", aby zapożyczyć frazę ze Star Treka. To rozszerzy krąg agentów moralnych poza ludzi, do systemów sztucznie inteligentnych, które nazwiemy sztucznymi agentami moralnymi (AMA). Nie wiemy dokładnie, jak rozwinie się katastrofalny incydent, ale poniższa opowieść może dać pewne wyobrażenie. Poniedziałek 23 lipca 2012 r. zaczyna się jak każdy zwykły dzień. Być może trochę po ciepłej stronie w większości Stanów Zjednoczonych, przy spodziewanym wysokim zapotrzebowaniu na energię elektryczną, ale nie na rekordowym poziomie. Koszty energii w Stanach Zjednoczonych rosną, a spekulanci podnoszą ceny kontraktów terminowych, a także cenę spot ropy, która zbliża się do 300 dolarów za baryłkę. W ostatnich tygodniach federalna Komisja Papierów Wartościowych i Giełd (SEC) zwróciła uwagęna nieco nietypowe zautomatyzowane działania handlowe na rynkach derywatów energii, zapewniły jednak organy regulacyjne, że ich programy działają w normalnych warunkach. O godzinie 10:15 na Wschodnim Wybrzeżu cena ropy nieznacznie spada w odpowiedzi na wiadomość o odkryciu dużych nowych rezerw na Bahamach. Oprogramowanie w oddziale inwestycyjnym Orange i Nassau Bank oblicza, że może przynieść zysk, wysyłając e-mailem jednej czwartej swoich klientów zalecenie kupna kontraktów terminowych na ropę, tymczasowo podnosząc ceny na rynku spot, ponieważ dealerzy gromadzą zapasy, aby zaspokoić przyszły popyt , a następnie sprzedaje kontrakty terminowe pozostałym klientom.

Ten plan zasadniczo polega na zestawieniu jednego sektora klientów z pozostałymi, co jest oczywiście całkowicie nieetyczne. Jednak oprogramowanie banku nie zostało zaprogramowane do uwzględniania takich subtelności. W rzeczywistości scenariusz zarabiania pieniędzy autonomicznie zaplanowany przez komputer jest niezamierzoną konsekwencją wielu indywidualnie rozsądnych zasad. Programiści nie mogli łatwo przewidzieć zdolności komputera do wymyślenia tego schematu. Niestety e-mail "kup", który komputer wysyła bezpośrednio do klientów, działa zbyt dobrze. Inwestorzy, którzy są przyzwyczajeni do tego, że cena ropy rośnie i rośnie, entuzjastycznie podążają za modą, a cena spotowa ropy nagle wzrasta znacznie powyżej 300 USD i nie wykazuje żadnych oznak spowolnienia. Na wschodnim wybrzeżu jest teraz 11:30, a temperatury rosną szybciej, niż przewidywano. Oprogramowanie kontrolujące sieć elektroenergetyczną New Jersey oblicza, że może zaspokoić nieoczekiwane zapotrzebowanie, jednocześnie obniżając koszty energii, wykorzystując swoje elektrownie węglowe zamiast generatorów opalanych olejem. Jednak jeden z generatorów spalających węgiel doznaje eksplozji podczas pracy z maksymalną wydajnością i zanim ktokolwiek będzie mógł działać, kaskadowe przerwy w dostawie prądu powodują odcięcie zasilania dla połowy wschodniego wybrzeża. Wall Street jest dotknięte, ale dopiero organy regulacyjne SEC zauważyły, że wzrost przyszłych cen ropy naftowej był komputerową grą typu shell pomiędzy kontami Orange i Nassau Bank, które były przedmiotem automatycznego obrotu. W miarę rozprzestrzeniania się wiadomości, a inwestorzy planują wzmocnić swoje pozycje, jasne jest, że ceny gwałtownie spadną, gdy tylko rynki ponownie się otworzą, a miliony dolarów zostaną utracone. W międzyczasie przerwy w dostawie energii rozprzestrzeniły się na tyle daleko, że wiele osób nie jest w stanie uzyskać niezbędnej pomocy medycznej, a wielu innych utknęło daleko od domu. Wykrywając rozprzestrzeniające się awarie jako potencjalną akcję terrorystyczną, oprogramowanie do kontroli bezpieczeństwa na krajowym lotnisku Reagana automatycznie ustawia się na najwyższy poziom bezpieczeństwa i stosuje biometryczne kryteria dopasowania, które sprawiają, że bardziej niż zwykle ludzie są określani jako podejrzani. Oprogramowanie, które nie ma mechanizmu ważenia korzyści płynących z zapobieżenia atakowi terrorystycznemu i niedogodności, jakie jego działania spowodują dla dziesiątek tysięcy osób na lotnisku, identyfikuje grupę pięciu pasażerów oczekujących na lot 231 do Londynu , jako potencjalnych terrorystów. Ta duża koncentracja "podejrzanych" podczas jednego lotu powoduje, że program uruchamia blokadę lotniska i wysłanie zespołu bezpieczeństwa wewnętrznego do terminalu. Ponieważ pasażerowie są już zdenerwowani i zdenerwowani, sytuacja na bramce lotu 231 wymyka się spod kontroli i padają strzały. Ostrzeżenie wysłane z Departamentu Bezpieczeństwa Wewnętrznego do linii lotniczych, że atak terrorystyczny może być w toku, skłania wielu przewoźników do podjęcia działań w celu wylądowania ich flot. W zamieszaniu spowodowanym przez dużą liczbę samolotów próbujących wylądować na lotnisku O′Hare w Chicago, odrzutowiec zderza się z Boeingiem 777, zabijając 157 pasażerów i załogę. Siedem osób ginie, gdy gruz ląduje na przedmieściach Chicago w Arlington Heights i powoduje pożar w bloku domów. W międzyczasie automatyczne karabiny maszynowe zainstalowane na granicy amerykańsko-meksykańskiej otrzymują sygnał, który stawia je w stan gotowości. Są zaprogramowane do działania autonomicznego w warunkach czerwonego kodu, umożliwiając wykrywanie i eliminację potencjalnie wrogich celów bez bezpośredniego nadzoru człowieka. Jeden z tych robotów strzela do Hummera wracającego z wycieczki terenowej w pobliżu Nogales w Arizonie, niszcząc pojazd i zabijając trzech obywateli USA. Zanim Wschodnie Wybrzeże zostanie przywrócone, a rynki zostaną ponownie otwarte kilka dni później, setki ofiar śmiertelnych i utrata miliardów dolarów można przypisać osobno zaprogramowanym decyzjom tych wielu współdziałających ze sobą systemów. Efekty są odczuwalne od miesięcy. Czas może udowodnić nam, że jesteśmy biednymi prorokami katastrofy. Naszym zamiarem w przewidywaniu takiej katastrofy nie jest wywołanie sensacji ani zaszczepienie strachu. To nie jest tekst o okropnościach technologii. Naszym celem jest zorganizowanie dyskusji w sposób konstruktywny przy projektowaniu AMA. Celem naszych przewidywań jest zwrócenie uwagi na potrzebę rozpoczęcia pracy nad moralnymi maszynami już teraz, a nie za dwadzieścia do stu lat, kiedy technologia dogoni science fiction. Dziedzina moralności maszyn rozszerza dziedzinę etyki komputerowej poza troskę o to, co ludzie robią ze swoimi komputerami, na pytania o to, co maszyny same robią. (Będziemy używać zamiennie terminów etyka i moralność). Omawiamy kwestie technologiczne związane z przekształcaniem samych komputerów w jawnie moralne osoby. W miarę jak sztuczna inteligencja (AI) rozszerza zakres autonomicznych agentów, wyzwanie związane z tym, jak zaprojektować tych agentów tak, aby szanowały szerszy zestaw wartości i praw, których ludzie żądają od ludzkich agentów moralnych, staje się coraz pilniejsze.

Czy ludzkość naprawdę chce, aby komputery podejmowały ważne moralnie decyzje? Wielu filozofów technologii ostrzegało, że ludzie zrzekają się odpowiedzialności na rzecz maszyn. Filmy i magazyny pełne są futurystycznych fantazji na temat niebezpieczeństw związanych z zaawansowanymi formami sztucznej inteligencji. Powstające technologie są zawsze łatwiejsze do zmodyfikowania, zanim się zakorzenią. Jednak często nie jest możliwe dokładne przewidzenie wpływu nowej technologii na społeczeństwo, dopóki nie zostanie ona powszechnie przyjęta. Dlatego niektórzy krytycy uważają, że ludzie powinni zachować ostrożność i zrezygnować z rozwoju potencjalnie niebezpiecznych technologii. Wierzymy jednak, że siły rynkowe i polityczne zwyciężą i zażądają korzyści, jakie te technologie mogą zapewnić. Tak więc na każdym zainteresowanym tą technologią spoczywa obowiązek bezpośredniego zajęcia się zadaniem wprowadzenia moralnych decyzji w komputerach, robotach i wirtualnych "botach" w sieciach komputerowych. Jak już wspomniano, ten tekst nie dotyczy horroru technologii. Tak, maszyny nadchodzą. Tak, ich istnienie będzie miało niezamierzony wpływ na życie i dobrobyt ludzi, nie wszystkie z nich są dobre. Ale nie, nie wierzymy, że coraz większa zależność od systemów autonomicznych podkopie podstawowe człowieczeństwo ludzi. Naszym zdaniem również zaawansowane roboty nie zniewolą ani nie wytępią ludzkości, jak to ma miejsce w najlepszych tradycjach science fiction. Ludzie zawsze dostosowywali się do swoich produktów technologicznych, a korzyści płynące z posiadania wokół siebie autonomicznych maszyn najprawdopodobniej przewyższą koszty. Jednak ten optymizm nie przychodzi za darmo. Nie można po prostu usiąść i mieć nadzieję, że wszystko ułoży się dobrze. Jeśli ludzkość ma uniknąć konsekwencji złych, autonomicznych, sztucznych agentów, ludzie muszą być przygotowani do intensywnego przemyślenia, co trzeba zrobić, aby uczynić takie środki dobrymi. Proponując zbudowanie moralnych maszyn decyzyjnych, czy nadal jesteśmy zanurzeni w sferze fizyki naukowej - a może, co gorsza, w tej kategorii fantazji naukowej, często kojarzonej ze sztuczną inteligencją? Zarzut mógłby być uzasadniony, gdybyśmy odważnie przewidzieli początek AMA lub twierdzili, że "to tylko kwestia czasu", zanim zaczniemy chodzić, a mówiące maszyny zastąpią ludzi, do których ludzie zwracają się teraz po wskazówki moralne. Nie jesteśmy jednak futurystami i nie wiemy, czy pozorne bariery technologiczne dla sztucznej inteligencji są rzeczywiste, czy iluzoryczne. Nie jesteśmy też zainteresowani spekulacjami na temat tego, jak będzie wyglądało życie, gdy twój doradca będzie robotem, ani nawet przewidywaniem, czy to kiedykolwiek nastąpi. Raczej interesują nas kolejne etapy wynikające z obecnych technologii które sugerują potrzebę etycznego podejmowania decyzji. Być może małe kroki ostatecznie doprowadzą do powstania w pełni rozwiniętej sztucznej inteligencji - miejmy nadzieję, że będzie to mniej morderczy odpowiednik HAL z 2001: Odyseja kosmiczna - ale nawet jeśli w pełni inteligentne systemy pozostaną poza zasięgiem, uważamy, że inżynierowie stoją przed prawdziwym problemem, którego nie można adresowane wyłącznie przez inżynierów. Czy jest za wcześnie, aby poruszać ten temat? My tak nie uważamy. Roboty przemysłowe wykonujące powtarzalne zadania mechaniczne powodowały obrażenia, a nawet śmierć. Przewiduje się, że popyt na roboty domowe i usługowe stworzy światowy rynek dwa razy większy niż roboty przemysłowe do 2010 r. I czterokrotnie większy do 2025 r. Wraz z pojawieniem się robotów domowych i usługowych, roboty nie są już ograniczone do kontrolowanych środowisk przemysłowych, gdzie są tylko przeszkolone. pracownicy mają z nimi kontakt. Małe zwierzęta-roboty, na przykład AIBO firmy Sony, są zwiastunami większych robotów. Kupiono miliony robotów odkurzających, na przykład "Roomba" firmy iRobot. Pojawili się już podstawowi kurierzy robotów w szpitalach i przewodniki po robotach w muzeach. Dużą uwagę poświęca się opracowywaniu robotów usługowych, które będą wykonywać podstawowe zadania domowe oraz pomagać osobom starszym i domowym. Programy komputerowe inicjują miliony transakcji finansowych z wydajnością, której ludzie nie są w stanie powielić. Decyzje dotyczące zakupu, a następnie odsprzedaży akcji, towarów i walut w oprogramowaniu są podejmowane w ciągu kilku sekund, wykorzystując potencjał zysku, którego żaden człowiek nie jest w stanie wykryć w czasie rzeczywistym, i reprezentując znaczący procent aktywności na rynkach światowych.

Zautomatyzowane systemy finansowe, zrobotyzowane zwierzęta domowe i automatyczne odkurzacze wciąż są dalekie od naukowych scenariuszy w pełni autonomicznych maszyn podejmujących decyzje, które radykalnie wpływają na dobrostan człowieka. Chociaż rok 2001 minął, HAL Arthura C. Clarke&primle;a pozostaje decyzją i można bezpiecznie założyć, że scenariusz zagłady Terminatora nie zostanie zrealizowany przed datą sprzedaży do 2029 r. Być może nie jest tak bezpiecznie, aby obstawiać przeciwko Matrixowi zrealizowanemu do 2199 roku. Jednak ludzie są już w punkcie, w którym systemy inżynieryjne podejmują decyzje, które mogą wpływać na życie ludzi i konsekwencje etyczne. W najgorszych przypadkach mają głęboki negatywny wpływ. Czy można budować AMA? W pełni świadome sztuczne systemy z pełnymi ludzkimi zdolnościami moralnymi mogą prawdopodobnie pozostać na zawsze w sferze naukowej. Niemniej jednak uważamy, że wkrótce powstaną bardziej ograniczone systemy. Takie systemy będą miały pewną zdolność oceny etycznych konsekwencji ich działań - na przykład, czy nie mają innego wyjścia, jak tylko naruszyć prawo własności w celu ochrony prawa do prywatności. Zadanie projektowania AMA wymaga poważnego spojrzenia na teorię etyczną, która wywodzi się z perspektywy skoncentrowanej na człowieku. Wartości i troski wyrażone w światowych tradycjach religijnych i filozoficznych nie są łatwe do zastosowania w maszynach. Systemy etyczne oparte na regułach, na przykład Dziesięciu Przykazaniach lub Trzech Praw Asimova dla robotów, mogą wydawać się nieco łatwiejsze do osadzenia w komputerze, ale jak pokazują liczne historie Asimova o robotach, nawet trzy proste zasady (później cztery) mogą spowodować wiele etycznych dylematy. Etyka Arystotelesa kładła nacisk na charakter ponad zasady: dobre działania wypływały z dobrego charakteru, a celem kwitnącej istoty ludzkiej było rozwinięcie cnotliwego charakteru. Oczywiście ludziom wystarczająco trudno jest rozwinąć własne cnoty, nie mówiąc już o rozwijaniu odpowiednich cnót dla komputerów lub robotów. Podjęcie wyzwania inżynierskiego związanego z przejściem od Arystotelesa do Asimowa i dalej będzie wymagało spojrzenia na początki ludzkiej moralności jako postrzegane w dziedzinie ewolucji, uczenia się i rozwoju, neuropsychologii i filozofii. Moralność maszynowa dotyczy w takim samym stopniu podejmowania decyzji przez człowieka, jak i filozoficznych i praktycznych kwestii wdrażania AMA. Refleksja i eksperymentowanie w budowaniu AMA zmusza nas do głębokiego przemyślenia tego, jak funkcjonują ludzie, jakie ludzkie zdolności mogą zostać wdrożone w maszynach, które ludzie projektują i jakie cechy naprawdę odróżniają ludzi od zwierząt lub od nowych form inteligencji, które ludzie tworzą. Tak jak sztuczna inteligencja pobudziła nowe kierunki dociekań w filozofii umysłu, tak moralność maszyn ma potencjał do stymulowania nowych kierunków docierania do etyki. Laboratoria robotyki i sztucznej inteligencji mogłyby stać się ośrodkami doświadczalnymi do testowania teorii podejmowania decyzji moralnych w systemach sztucznych. Z dotychczasowej dyskusji w sposób naturalny wyłaniają się trzy pytania. Czy świat potrzebuje AMA? Czy ludzie chcą, aby komputery podejmowały moralne decyzje? A jeśli ludzie uważają, że komputery podejmujące decyzje moralne są konieczne lub nieuniknione, w jaki sposób inżynierowie i filozofowie powinni przystąpić do projektowania AMA? Początek dotyczy pierwszego pytania, dlaczego ludzie potrzebują AMA. W Lekcji 1 omawiamy nieuchronność AMA i podajemy przykłady obecnych i innowacyjnych technologii, które są zbieżne w wyrafinowanych systemach, które będą wymagały pewnej zdolności do podejmowania decyzji moralnych. Omawiamy, w jaki sposób takie zdolności będą początkowo dość podstawowe, ale mimo to będą stanowić prawdziwe wyzwania. Nie najmniejszym z tych wyzwań jest określenie, jakie powinny być cele projektantów takich systemów - czyli co rozumiemy przez "dobre" AMA? W Lekcji 2 przedstawimy ramy dla zrozumienia trajektorii coraz bardziej wyrafinowanych AMA poprzez podkreślenie dwóch wymiarów: autonomii i wrażliwości na moralnie istotne fakty. Systemy znajdujące się na najniższym końcu tych wymiarów mają tylko to, co nazywamy "moralnością operacyjną" - to znaczy ich moralne znaczenie jest całkowicie w rękach projektantów i użytkowników. W miarę jak maszyny stają się coraz bardziej wyrafinowane, rodzaj "moralności funkcjonalnej" jest technologicznie możliwy, tak że same maszyny są w stanie oceniać wyzwania moralne i odpowiadać na nie. Jednak twórcy moralności funkcjonalnej w maszynach napotykają wiele ograniczeń wynikających z ograniczeń dzisiejszej technologii. Natura etyki nakłada inny zestaw ograniczeń na akceptację komputerów podejmujących decyzje etyczne. W ten sposób w naturalny sposób dochodzimy do pytania: Czy ludzie chcą, aby komputery podejmowały decyzje moralne. Obawy związane z AMA to szczególny przypadek bardziej ogólnych obaw dotyczących wpływu technologii na kulturę ludzką. Dlatego zaczynamy od przeglądu odpowiednich fragmentów filozofii technologii, aby zapewnić kontekst dla bardziej szczegółowych problemów zgłaszanych przez AMA.

Niektóre obawy, na przykład, czy AMA doprowadzą ludzi do zniesienia odpowiedzialności przed maszynami, wydają się szczególnie palące. Inne obawy, na przykład perspektywa dosłownego zniewolenia ludzi przez maszyny, wydają się nam wysoce spekulatywne. Nierozwiązany problem oceny ryzyka technologicznego polega na tym, jak poważnie można porównać katastrofalne możliwości z oczywistymi zaletami nowych technologii. Jak blisko może dojść do tego, że sztuczni agenci zostaną uznani za agentów moralnych, jeśli brakuje im ludzkich cech, na przykład świadomości i emocji? W Lekcji 4 zaczynamy od omówienia kwestii, czy "zwykła" maszyna może być czynnikiem moralnym. Przyjmujemy instrumentalne podejście, że chociaż pełnoprawna moralna sprawczość może wykraczać poza obecną lub przyszłą technologię, niemniej jednak istnieje duża przestrzeń między moralnością operacyjną a "prawdziwą" sprawczością moralną. Jest to nisza, którą zidentyfikowaliśmy jako moralność funkcjonalną w Lekcji 2. Celem Lekcji 4 jest omówienie przydatności bieżących prac nad sztuczną inteligencją do określania cech wymaganych do tworzenia AMA do różnych zastosowań. Po uporaniu się z tymi ogólnymi kwestiami sztucznej inteligencji, zwracamy uwagę na konkretną implementację podejmowania decyzji moralnych. Część 5 przedstawia w zarysie, co filozofowie i inżynierowie mają do zaoferowania sobie nawzajem, oraz opisuje podstawowe ramy odgórnego i oddolnego lub rozwojowego podejścia do projektowania AMA. W Lekcjiach 6 i 7 szczegółowo opisano podejście odgórne i oddolne. W Lekcji 6 omawiamy obliczalność i wykonalność koncepcji etyki opartych na regułach i obowiązkach, a także możliwość obliczenia efektu netto działania, zgodnie z wymaganiami konsekwencjalistycznego podejścia do etyki. W Lekcji 7 rozważymy podejścia oddolne, które stosują metody uczenia się, rozwoju lub ewolucji, mając na celu wyłanianie się zdolności moralnych z ogólnych aspektów inteligencji. Istnieją ograniczenia dotyczące obliczalności zarówno podejścia odgórnego, jak i oddolnego, które opisujemy w tych Lekcjach.

Nowe pole moralności maszyn musi uwzględniać te ograniczenia, badać mocne i słabe strony różnych podejść do programowania AMA, a następnie położyć podwaliny pod inżynierię AMA w wyrafinowany filozoficznie i poznawczo sposób. Z naszej dyskusji wynika, że pierwotne rozróżnienie między podejściem odgórnym i oddolnym jest zbyt uproszczone, aby uwzględnić wszystkie wyzwania, przed którymi staną projektanci AMA. Jest to prawdą zarówno na poziomie projektowania inżynierskiego, jak i, jak sądzimy, teorii etycznej. Inżynierowie będą musieli połączyć metody odgórne i oddolne, aby zbudować działające systemy. Trudności związane ze stosowaniem ogólnych teorii moralnych w sposób odgórny motywują również do dyskusji na temat zupełnie innej koncepcji moralności, która wywodzi się z Arystotelesa, a mianowicie etyki cnoty. Cnoty są hybrydą między podejściem odgórnym i oddolnym, ponieważ same cnoty można wyraźnie opisać, ale ich nabycie jako cech charakteru wydaje się zasadniczo procesem oddolnym. Omawiamy etykę cnoty dla AMA w Lekcji 8. Naszym celem jest nie tylko zadawanie wielu pytań, ale także zapewnienie zasobów do dalszego rozwoju tych tematów. W Lekcji 9 dokonujemy przeglądu narzędzi programowych, które są wykorzystywane do rozwoju komputerowego podejmowania decyzji moralnych. Podejścia odgórne i oddolne podkreślają znaczenie w etyce umiejętności rozumowania. Jednak duża część najnowszej literatury empirycznej na temat psychologii moralnej kładzie nacisk na zdolności poza racjonalnością. Emocje, towarzyskość, zrozumienie semantyczne i świadomość są ważne dla podejmowania decyzji moralnych przez człowieka, ale pozostaje otwarta kwestia, czy będą one istotne dla AMA, a jeśli tak, to czy można je wdrożyć w maszynach. W Lekcji 10 omawiamy najnowsze, nowatorskie badania naukowe, których celem jest wyposażenie komputerów i robotów w takie ponadnarodowe możliwości, a w Lekcji 11 przedstawiamy konkretne ramy, w których to, co racjonalne i ponadnarodowe, można połączyć w jednej maszynie. W Lekcji 12 wracamy do naszego drugiego pytania przewodniego, dotyczącego celowości podejmowania decyzji moralnych przez komputery, ale tym razem w celu sformułowania zaleceń dotyczących monitorowania i zarządzania zagrożeniami poprzez politykę publiczną lub mechanizmy zarządzania odpowiedzialnością społeczną i biznesową. Na koniec, w epilogu, pokrótce omawiamy, w jaki sposób projekt projektowania AMA wpływa z powrotem na ludzkie rozumienie siebie jako podmiotów moralnych oraz na naturę samej teorii etycznej. Ograniczenia, które widzimy w aktualnej teorii etycznej, dotyczące przydatności takich teorii do kierowania AMA, podkreślają głębokie pytania dotyczące ich celu i wartości.

Niektóre podstawowe decyzje moralne mogą być dość łatwe do wdrożenia w komputerach, podczas gdy umiejętność radzenia sobie z trudniejszymi dylematami moralnymi wykracza daleko poza obecną technologię. Bez względu na to, jak szybko i jak daleko ludzie robią postępy w opracowywaniu AMA, w procesie rozwiązywania tego problemu ludzie poczynią znaczący postęp w zrozumieniu, jakie naprawdę są niezwykłe stworzenia. Ćwiczenie przemyślenia sposobu, w jaki podejmowane są decyzje moralne z szczegółowością niezbędną do rozpoczęcia wdrażania podobnych zdolności w (ro) botach, jest więc ćwiczeniem samorozumienia. Nie możemy mieć nadziei, że uda nam się w pełni oddać sprawiedliwość tym kwestiom, a nawet wszystkim kwestiom poruszonym w całej książce. Jednak mamy szczerą nadzieję, że wychowując je w tej formie, zainspirujemy innych do podjęcia tego, co zostało przerwane, i podjęcia kolejnych kroków w kierunku przeniesienia tego projektu z teorii do praktyki, od filozofii do inżynierii i głębsze zrozumienie samej dziedziny etyki