"Standardowa edukacja zapewni Ci przeżycie. Samokształcenie - fortunę".   Jim Rohn


Moralność Maszyny (X)


Delegowanie odpowiedzialności za decyzje na komputer


Zasugerowaliśmy, że AMA są konieczne i nieuniknione, ale czy są jakieś wady rozwoju tej technologii? Istnieją oczywiście wysoce spekulatywne i często alarmistyczne obawy zgłaszane przez futurystów i wielbicieli nauki, ale istnieją również bardziej bezpośrednie obawy dotyczące wpływu na ludzką godność i odpowiedzialność, które mogą wynikać nawet z bardziej ograniczonych form sztucznej inteligencji. systemy. Początkowe podejścia do moralności maszyn najprawdopodobniej będą miały postać narzędzi wspomagających oprogramowanie dla decydentów. Istnieje jednak niebezpieczeństwo, że takie narzędzia pomocnicze staną się kulami dla użytkowników, którzy zastąpią wyniki maszyn ich własnym krytycznym myśleniem. Socjolodzy Batya Friedman i Peter Kahn podnieśli ten niepokój dotyczący narzędzi wspomagania decyzji (DST). Friedman i Kahn sugerują, że DST rozpoczynają stromą ścieżkę ku porzuceniu moralnej odpowiedzialności przez decydentów. Ponieważ ludzie zaczynają ufać radom DST, kwestionowanie tej rady może stać się trudniejsze. Uważają, że istnieje niebezpieczeństwo, że DST może w końcu przejąć kontrolę nad procesem decyzyjnym. Dlaczego miałoby to być złe? Friedman i Kahn nie są do końca jasne w tej kwestii, chociaż wydaje się, że odpowiedzialne przetwarzanie danych wymaga w pełni świadomego agenta, który byłby odpowiedzialny za każdą decyzję. Uważamy, że może to być wymagane w niektórych bardzo ważnych kontekstach - na przykład przy podejmowaniu decyzji o życiu i śmierci w szpitalach. Ale jest wiele obszarów, w których bezpośredni nadzór człowieka jest niewykonalny z powodów, które już wyjaśniliśmy. W tych kontekstach odpowiedzialne przetwarzanie danych oznacza posiadanie programów, które uwzględniają i reagują na etycznie istotne cechy rozważanego problemu. Friedman i Kahn wykorzystują czas letni na oddziale intensywnej terapii (OIOM) szpitala, aby zilustrować swoje obawy. Skupiają się na APACHE, komputerowym modelu wspomagania decyzji, który ułatwia określanie procedur terapeutycznych dla pacjentów na OIT. Jak to ujęli:

Praktyką personelu intensywnej opieki medycznej może stać się nieco automatyczne działanie zgodnie z zaleceniami APACHE, a nawet doświadczonemu lekarzowi może być coraz trudniej podważyć "autorytet" zaleceń APACHE. . . . Ale w tym momencie otwarty system konsultacji. . . stał się w rzeczywistości systemem o zamkniętej pętli, w którym prognozy komputerowe dyktują decyzje kliniczne.

Kiedy Friedman i Kahn napisali swój artykuł w 1992 roku, system APACHE był prototypem. Najnowsza aktualizacja, APACHE-III, zawiera bazę danych z informacjami o ponad sześciuset tysiącach pacjentów OIT. System jest sprzedawany z założeniem, że może dostarczać w czasie rzeczywistym, dostosowane do ryzyka, informacje kliniczne i finansowe lekarzom i administratorom szpitali, którzy zarządzają opieką nad pacjentami wysokiego ryzyka i kosztami. APACHE Medical Systems twierdzi, że pomaga to szpitalom we wprowadzaniu zmian proceduralnych, które mogą na przykład skrócić czas pobytu pacjenta na OIT, a tym samym obniżyć koszty szpitala. Firma twierdzi również, że ulepszone procedury i udoskonalenia w ocenie rokowań dla poszczególnych pacjentów doprowadziły do wymiernej poprawy opieki nad pacjentem. Czy obecność APACHE w szpitalach doprowadziła do spadku autonomii lekarzy? Trudno jest odpowiedzieć na to pytanie. W każdym razie nie jest jasne, czy zmniejszenie autonomii lekarzy byłoby tak złe, gdyby lekarze stosujący APACHE mieli tendencję do wykonywania lepszej pracy dla swoich pacjentów niż lekarze pracujący bez systemu wspomagania decyzji. Niemniej jednak ważne jest, aby zdać sobie sprawę z niebezpieczeństwa, na które zwracają uwagę Friedman i Kahn - polegającego na tym, że lekarze polegają na maszynie podczas oceny opieki nad pacjentem. Biorąc pod uwagę obecny wiek, w którym odbywa się proces, zgadzamy się, że pracownicy służby zdrowia mogą być nieśmiali, jeśli chodzi o kwestionowanie wniosków DST z dobrym wynikiem osiągnięć. Skomputeryzowana ścieżka audytu zawierająca szczegółowe analizy systemu będzie prawdopodobnie dostępna dla przedsiębiorczych prawników zajmujących się błędami w sztuce. Zamiast spekulować na temat takiej niechęci, uważamy jednak, że takie obawy powinny opierać się na badaniach empirycznych - czy to prawda, że czas letni nieuchronnie prowadzi do zbyt dużej kontroli nad maszyną? Niektóre wstępne badania sugerują, że lekarze pozytywnie reagują na DST, ale potrzebne są dalsze badania. Friedman i Kahn rozważali również perspektywę, że system APACHE może pewnego dnia zostać użyty do wyłączenia podtrzymania życia bez żadnego bezpośredniego działania ze strony ludzkiego decydenta. Te spekulacje mogą być niepokojące, ale w ciągu półtorej dekady, odkąd wzbudzili ten niepokój, nie widzieliśmy żadnych dowodów na to, że pełna kontrola maszyny nad decyzjami o życiu i śmierci zbliżyła się. Zanim ktokolwiek podejmie ten drastyczny krok, dostępne oprogramowanie musiałoby osiągnąć poziom wyrafinowania, który znacznie przekracza wrażliwość etyczną czegokolwiek obecnie przewidzianego. APACHE ma bardzo ograniczoną koncepcję tego, co jest etycznie lub moralnie istotne w sytuacji na OIT. Bardziej etycznie ukierunkowany czas letni powinien uwzględniać nie tylko przeżycie pacjenta, ale także kwestie, na przykład, czy leczenie jest zgodne z życzeniami pacjenta i jego rodziny oraz czy przewidywany wynik leczenia zapewni jakość życia do przyjęcia dla niego. Są to rodzaje rozważań dotyczących autonomii pacjenta i dobrego samopoczucia, na które zwykle najlepiej odpowiedzieć w pełnym i otwartym dialogu między lekarzem a pacjentem i mogą one obejmować inne osoby, na przykład małżonka lub doradcę religijnego, którego zaprasza pacjent. do dyskusji. Czasami jednak pacjenci nie są w stanie nawiązać dialogu. Czy komputery mogłyby być tak dokładne, jak krewni pacjenta w przewidywaniu preferencji takich nieuleczalnie chorych pacjentów? Grupa badawcza National Institutes of Health (NIH) opublikowała badanie w 2007 r. Pokazujące, że krewni pacjentów trafnie przewidywały życzenia swoich bliskich tylko przez około trzy czwarte czasu. Czy program komputerowy mógłby działać lepiej? David Wendler, bioetyk z NIH, który uważa ,że tak , uważa jeden z autorów opracowania. On i jego koledzy napisali program, który nie wykorzystywał żadnych informacji poza tym, jak dobrze leczenie zadziałało u innych pacjentów w podobnym stanie. Stosował prostą zasadę, aby przewidzieć, czy pacjent zgodziłby się na określone leczenie. Gdyby terapia miała 1% szansy na odzyskanie przez pacjenta normalnych zdolności poznawczych, program przewidywał, że zostanie wybrany. Program był w stanie przewidywać życzenia pacjentów równie dokładnie, jak krewni i przyjaciele. Wendler uważa, że biorąc pod uwagę więcej informacji o pacjencie, takich jak wiek, płeć i zawód, oprogramowanie powinno być w stanie znacznie przewyższyć ludzką ocenę. Być może zatem, gdybyś kiedykolwiek stał się niezdolny do pracy bez uprzedniego sporządzenia testamentu na życie, wolałbyś, aby decyzję o intensywnej terapii podjęła maszyna, a nie krewni! Gdy pacjenci nie są całkowicie niezdolni do pracy, zgadzamy się z Friedmanem i Kahnem co do potrzeby zachowania czujności przed niewłaściwym wykorzystaniem DST. Niezależnie od kontekstu, wspomaganie decyzji nie powinno stać się domyślnym procesem decyzyjnym. Nie wyklucza to jednak potrzeby stosowania coraz bardziej wyrafinowanych DST, które uwzględniają szerszy zakres szczegółów istotnych z etycznego punktu widzenia - innymi słowy, DST bardziej przypomina AMA. W systemie, w którym 90% decyzji jest poprawnych przy użyciu wyłącznie kryteriów ślepych z etycznego punktu widzenia - na przykład obiektywnych wskaźników przeżywalności - może brakować 10% przypadków, w których osąd etyczny ma największe znaczenie dla wszystkich zaangażowanych. Niemniej jednak można by sprzeciwić się temu, że rozwój czasu letniego wzdłuż tego toru zwiększa nachylenie lub jego śliskość. Istnieje obawa, że im bardziej intuicyjnie wiarygodne jest działanie maszyny, tym bardziej prawdopodobne jest, że będzie ona traktowana antropomorficznie jako ucieleśniająca prawdziwą inteligencję moralną. Prawdopodobnie ci, którzy projektują i sprzedają takie systemy, popełniają pewnego rodzaju oszustwa na tych, którzy ich używają: sprawiają, że ludzie wierzą, że te systemy są czymś, czym nie są.




Moralność Maszyny (IX)


Czy ludzkość chce, aby komputery podejmowały moralne decyzje?


Strach i fascynacja

Nieformalnie przeprowadziliśmy ankiety wśród ludzi na temat pożądania AMA i stwierdziliśmy, że są dość podzieleni. Wielu zgadza się z nami, że AMA są konieczne i nieuniknione. Inni twierdzą, że pomysł AMA potęguje ich dyskomfort związany z zaawansowaną technologią. Jest coś paradoksalnego w pomyśle, że można złagodzić niepokój wywołany przez zaawansowaną technologię za pomocą jeszcze bardziej wyrafinowanej technologii. Istnieje napięcie między fascynacją technologią a niepokojem, który wywołuje. Uważamy, że ten niepokój ma dwa źródła. Z jednej strony wszystkie typowe dla futurystów obawy związane z technologią znajdującą się poza kontrolą człowieka. Z drugiej strony wyczuwamy głębsze, bardziej osobiste obawy o to, co ta technologia może ujawnić o samych ludziach. Głęboki związek ludzkości z technologią jest czasami ujmowany wyrażeniem "człowiek, wytwórca narzędzi", które podsumowuje centralną koncepcję natury ludzkiej, która jest często (nieco błędnie) używana do odróżniania ludzi od innych zwierząt. Kiedy prymitywni przodkowie ludzi podnosili kamienie i przekształcali je w narzędzia lub broń, zapoczątkowali koewolucję ludzkości i jej technologii. Dzisiejsze dzieci nie potrafią wyobrazić sobie świata bez komputerów, a wszyscy zmienili się wraz z pojawieniem się kanalizacji, urządzeń sanitarnych, szybkiego transportu i powszechnej edukacji. Centralne miejsce technologii dla natury ludzkiej jest głównym tematem filozofii technologii, która sięga Arystotelesa. Filozofowie technologii zajmują się rolą technologii w kulturze ludzkiej, w tym wynikającymi z niej kosztami i korzyściami. Biblijne pojęcie przekucia mieczy na lemiesze ilustruje długotrwałe powiązanie narzędzi z kosztami, korzyściami i mocą. Ponieważ ludzie byliby zagubieni bez ich gadżetów i maszyn, narzędzia, które do pewnego stopnia definiują ludzi, mogą być również postrzegane jako kontrolujące ich życie i podważające ich autonomię. Działają tu dwa pojęcia wartości. Z jednej strony istnieją wartości zewnętrzne, które mają związek z tym, czy technologia przyczynia się do dobrobytu publicznego, czy też nie. Czy broń jądrowa, klonowanie i sztuczna inteligencja są ogólnie dobre? A co z samolotami, pociągami i samochodami? Z drugiej strony istnieją wartości wewnętrzne, które mają związek z tym, jak technologia kształtuje to, co oznacza bycie człowiekiem. Czy my, jak mówi Andy Clark, jesteśmy "urodzonymi cyborgami", którzy tak chętnie przyswajają technologie, że dosłownie się z nimi łączą? A może technologia jest tak łatwa do zrzucenia jak para majtek? (A tak przy okazji, gdzie bohaterowie Matriksa znaleźli ubrania?) Istnieje filozoficzne napięcie między autonomią ludzi a ich zależnością od technologii. Ponadto istnieje poczucie, że przyjęcie nowych technologii nie tylko zmienia ludzki potencjał, ale może również zmienić ludzki charakter i świadomość. Socjolog Sherry Turkle z MIT pisze, że "nieokreślona uwaga leży u podstaw wielu naszych obecnych trosk związanych z przyszłością technologii. Pytanie nie dotyczy tego, jaka będzie technologia w przyszłości, ale raczej, jacy będziemy, kim się stajemy, gdy zacieśniamy coraz bardziej intymne relacje z naszymi maszynami ". Filozofia technologii rodzi pytania o wolność i godność człowieka w coraz bardziej technologicznym społeczeństwie. Czy to prawda, że znacznie więcej ludzi w społeczeństwach wysoko uprzemysłowionych jest zdegradowanych do powtarzalnych i ogłupiających zawodów? Czy popyt na produkty technologii nieuchronnie dziesiątkuje środowisko? Rozwój niektórych nowych technologii, na przykład inżynierii genetycznej i nanotechnologii, budzi obawę, że uruchamiane są potężne procesy, których ludzie mogą nie być w stanie kontrolować. Wiele takich samych zmartwień pojawia się w przypadku botów (ro). Wiele, być może większość z tego, co jest napisane w tym gatunku, nie zajmuje się rozwiązywaniem samych problemów technologicznych i rzeczywiście jest krytyczne wobec idei "postępu" technologicznego. Ci filozofowie technologii często postrzegają siebie jako niezbędną przeciwwagę dla optymistów technologicznych, na przykład Maggie Boden, bardzo wpływowej filozofki sztucznej inteligencji i dziekan założyciela School of Cognitive and Computing Sciences na University of Sussex w Brighton w Anglii, która napisała w swoim artykule z 1983 r. "Sztuczna inteligencja jako siła humanizująca", że sztuczna inteligencja może być "drzewem mango z Zachodu", zdolnym do uwolnienia ludzkości od znoju i prowadzenia bardziej humanistycznych działań. Podczas gdy filozofia technologii w starym stylu była w większości reaktywna i często motywowana widmem potężnych procesów pozostających poza ludzką kontrolą, nowe pokolenie filozofów technologii jest bardziej proaktywne. Starają się uświadomić inżynierom wartości, jakie wnoszą do każdego procesu projektowania i chcą mieć wpływ na projektowanie i wdrażanie technologii, a nie tylko na nie reagować. Nowi filozofowie technologii, nie zadowalając się zwykłymi wiwatami i drwinami, uczestniczą w spotkaniach o tak różnorodnych działaniach, jak projektowanie zabawek, gier wideo czy oczyszczalni ścieków. Filozof Helen Nissenbaum nazywa to "aktywizmem inżynieryjnym". Niektórzy inżynierowie mogą pokusić się o zignorowanie lub odrzucenie pytań o wartości jako zbyt "miękkie", ale to nie sprawi, że odejdą. Systemy i urządzenia będą ucieleśniały wartości, niezależnie od tego, czy ludzie tego chcą, czy nie. Ignorowanie wartości w technologii oznacza ryzyko poddania ich determinacji przypadkowi lub innej sile. Biorąc pod uwagę nieuniknione włączanie wartości do systemów komputerowych, Nissenbaum uzasadnia inżynierski aktywizm potrzebą "orędowania w imieniu wartości", które służą ludzkości. Dziedzina sztucznej moralności podziela to aktywistyczne podejście do technologii. Zasadniczo zajmuje się wprowadzaniem do technologii wartości, które zwiększają dobrobyt człowieka. Kiedy systemy komputerowe wybierają spośród różnych kierunków działań, angażują się w swego rodzaju proces decyzyjny. W najbliższej przyszłości wymiary etyczne tego procesu decyzyjnego będą w dużej mierze zdeterminowane przez inżynierów wartości, którzy włączą je do systemów, w sposób dorozumiany lub jawny. Do niedawna projektanci nie zastanawiali się, w jaki sposób wartości zostały implicite osadzone w produkowanych przez nich technologiach. Pomaganie inżynierom w uświadomieniu sobie zarówno wewnętrznego, jak i zewnętrznego wymiaru etycznego ich pracy jest ważnym osiągnięciem filozofów, takich jak Nissenbaum. Zwracanie uwagi na wartości, które są nieświadomie wbudowane w technologię, jest bardzo pożądanym rozwiązaniem. Projektanci systemów powinni przynajmniej rozważyć, czyje wartości lub jakie wartości wdrażają. Ale moralność zawarta w działaniach sztucznych agentów to nie tylko kwestia etyki inżynieryjnej, to znaczy skłonienia inżynierów do uznania ich założeń etycznych. Biorąc pod uwagę złożoność nowoczesnych komputerów, inżynierowie często odkrywają, że nie są w stanie przewidzieć, jak system zachowa się w nowej sytuacji. Przy projektowaniu każdej maszyny pracują setki inżynierów. Różne firmy, ośrodki badawcze i zespoły projektowe pracują nad poszczególnymi komponentami sprzętu i oprogramowania, które składają się na produkt końcowy. Modułowa konstrukcja systemu komputerowego może oznaczać, że żadna pojedyncza osoba lub grupa nie jest w stanie w pełni pojąć sposobu, w jaki system będzie oddziaływał na złożony przepływ nowych danych wejściowych lub reagował na nie. Cel sztucznej moralności przenosi aktywizm inżynieryjny poza podkreślanie roli wartości projektantów w kształtowaniu moralności operacyjnej systemów do zapewnienia samym systemom zdolności do jawnego moralnego rozumowania i podejmowania decyzji. Idealne AMA uwzględniłoby zarówno wartości zewnętrzne, jak i wewnętrzne, gdy dokonuje wyborów i działa. Niemniej jednak początkowo nacisk zostanie położony na zapewnienie, że boty (ro) nie powodują szkód zewnętrznych. Uwagę na wartości wewnętrzne będą mieli przede wszystkim inżynierowie projektujący systemy oraz społeczeństwo i użytkownicy, którzy zdecydują się na przyjęcie lub odrzucenie nowych technologii.




Moralność Maszyny (VIII)


Kategorie etycznych agentów Moora


James Moor, profesor filozofii w Dartmouth College, jednej z założycieli w dziedzinie etyki komputerowej, zaproponował hierarchiczny schemat kategoryzacji AMA. Na najniższym poziomie znajduje się to, co nazywa "agentami wpływu etycznego" - w zasadzie każda maszyna, którą można ocenić pod kątem konsekwencji etycznych. Dość ładny przykład Moora to zastąpienie młodych chłopców robotami w niebezpiecznym zawodzie dżokeja na wielbłądach w Katarze. W rzeczywistości wydaje nam się, że wszystkie (ro) boty mają etyczny wpływ, chociaż w niektórych przypadkach mogą być trudniejsze do wykrycia niż inne. Na następnym poziomie znajdują się to, co Moor nazywa "ukrytymi czynnikami etycznymi": maszyny, których projektanci dołożyli starań, aby zaprojektować je tak, aby nie miały negatywnych skutków etycznych, zajmując się kwestiami bezpieczeństwa i niezawodności krytycznymi podczas procesu projektowania. Prawdopodobnie wszystkie (ro) boty powinny być zaprojektowane tak, aby były niejawnymi agentami etycznymi, o ile projektanci zaniedbują się, jeśli nie potrafią wbudować procesów zapewniających bezpieczeństwo i niezawodność. Następnie pojawiają się "jawne czynniki etyczne": maszyny, które wnioskują o etyce, używając kategorii etycznych jako części swojego wewnętrznego programowania, być może używając różnych form logiki "deontycznej", które zostały opracowane w celu reprezentowania obowiązków i zobowiązań lub przy użyciu różnych innych technik. Poza tym wszystkim leżą pełnoprawni agenci etyczni: tacy, którzy potrafią dokonywać wyraźnych sądów moralnych i na ogół są całkiem kompetentni w uzasadnianiu takich decyzji. Często zakłada się, że ten poziom wykonania wymaga zdolności do świadomości, intencjonalności i wolnej woli. Jeśli któremuś z tych trzech braków w kontekście ludzkim, wówczas podważane są moralne sprawczość danej osoby i jej odpowiedzialność prawna. Chociaż stosunkowo łatwo jest wyobrazić sobie sztuczne systemy, które są "etycznymi wpływami" lub "ukrytymi moralnymi" podmiotami, jawna moralna sprawczość stwarza trudniejsze wyzwania. Wielu filozofów (i niektórzy naukowcy) stanowczo argumentuje, że niemożliwe jest posiadanie maszyn w pełni etycznych. Ci filozofowie i naukowcy wątpią w to, że ludzie mogą budować sztucznych agentów ze świadomością, intencjonalnością i wolną wolą, i utrzymują, że istnieje jasna linia oddzielająca jawnych agentów moralnych od pełnoprawnych agentów moralnych. Moor utrzymuje, że jawni agenci etyczni powinni być celem wyłaniającej się dziedziny etyki maszyn. Twierdzi, że czy w ogóle możliwe jest zrobienie czegoś więcej, nie można rozstrzygnąć argumentami filozoficznymi ani eksperymentami inżynieryjnymi w najbliższej przyszłości. Zgadzamy się ze strategią małych kroków. Chociaż kategorie Moora nie są bezpośrednio odwzorowywane na naszym wykresie autonomii i wrażliwości na cechy istotne z moralnego punktu widzenia, uważamy, że są one przydatne do określania zakresu zadań stojących przed etyką maszyn. Jednak niewiele robią, aby określić proces budowania operacyjnych i funkcjonalnych czynników moralnych. Czy budowanie ukrytych agentów etycznych jest krokiem w kierunku budowania jawnych czynników etycznych? Moor nic nam nie mówi i tak nie jest ,naprawdę zależy mu na tym. Nasz pomysł jest taki, że rozwój technologii polega na interakcji między zwiększoną autonomią a zwiększoną wrażliwością. Ponieważ boty (ro) stopniowo ewoluują w kierunku AMA, może nie być możliwe wytyczenie ostrych granic, aby powiedzieć, kiedy przeszły od jednego rodzaju etycznych agentów do drugiego w planie Moora. Wraz ze wzrostem autonomii inżynierowie muszą zająć się szerszymi kwestiami bezpieczeństwa i niezawodności. Niektóre z tych potrzeb mogą obejmować wyraźne przedstawienie kategorii i zasad etycznych, a inne nie. Przypuszczamy, że inżynierowie dodadzą te możliwości w sposób fragmentaryczny. Zwiększona autonomia botów (ro) to już trwający proces. Wyzwaniem dla dyscypliny sztucznej moralności jest to, jak podążać w kierunku wyznaczonym przez drugą oś: wrażliwość na względy moralne. Wrażliwość na względy moralne może oznaczać kilka rzeczy dla AMA. Przydatne wyróżnienie przyznaje Drew McDermott, profesor informatyki na Uniwersytecie Yale i honorowy członek Association for the Advancement of Artificial Intelligence. McDermott argumentuje, że przy projektowaniu AMA ważne jest, aby mieć na uwadze różnicę między osobami odpowiedzialnymi za rozumowanie etyczne a decydentami etycznymi. Znaczna część początkowego myślenia o tym, jak budować maszyny moralne, nie dotyczyło podejmowania decyzji moralnych w sensie McDermotta, ale zamiast tego skupiało się na dostosowaniu narzędzi rozumowania używanych w szerokim zakresie systemów eksperckich do rozumowania etycznego. Na przykład takie podejście zaproponowała Blay Whitby, wykładowca informatyki i sztucznej inteligencji na University of Sussex w Brighton w Anglii. Whitby, który od ponad dwudziestu lat pisze o społecznych i etycznych wymiarach informatyki, w swojej książce "Refleksje na temat sztucznej inteligencji" z 1995 roku zamieścił rozdział "Komputerowe przedstawienie rozumowania moralnego". W tym rozdziale rozważa, w jaki sposób warunkowe reguły "jeśli-to" stosowane przez systemy eksperckie można dostosować do moralnego rozumowania w zastosowaniach prawnych i innych. Whitby doskonale zdaje sobie sprawę z trudności nieodłącznie związanych z budowaniem rozumowania moralnego oraz ograniczeń wynikających z polegania wyłącznie na abstrakcyjnym rozumowaniu. Podobnie McDermott zwraca uwagę, że nawet gdyby można było rozwiązać trudne wyzwania związane z budowaniem systemów, które mogą rozumować na temat etyki, agenci ci nie byliby etycznymi decydentami. Kontrastuje on jednak podejmowanie decyzji etycznych z rozumowaniem etycznym, pisząc "Umiejętność podejmowania decyzji etycznych wymaga jednak wiedzy, czym jest konflikt etyczny, tj. Zderzenie interesu własnego z tym, co nakazuje etyka". Zdaniem McDermotta, agent może wiedzieć, czym jest konflikt etyczny i być prawdziwym decydentem moralnym tylko wtedy, gdy ma wystarczającą wolną wolę, by czasami zdecydować się działać we własnym interesie, gdy jest to sprzeczne z zaleceniami moralnymi. Do prawdziwych wyzwań inżynieryjnych najlepiej dążyć z jasnymi kryteriami sukcesu. Jak można opracować kryteria moralnej wrażliwości lub moralnej sprawczości? Alan Turing, jeden z ojców sztucznej inteligencji, stanął przed podobnym problemem, próbując ustalić, czy komputer jest inteligentny. Turing był brytyjskim matematykiem, którego wojenne próby złamania niemieckiego kodeksu odegrały kluczową rolę w zwycięstwie aliantów. Przed wojną Turing opracował matematyczną reprezentację maszyn i programów, która pozwoliła mu precyzyjnie określić, jakie funkcje matematyczne może obliczyć każda możliwa maszyna. Podczas wojny i po wojnie Turing przekształcił swoje abstrakcyjne idee w rzeczywiste maszyny, prekursory nowoczesnego komputera cyfrowego. W swoim artykule z 1950 r. "Computing Machinery and Intelligence", być może jednym z najbardziej wpływowych artykułów w filozofii sztucznej inteligencji, Turing zaproponował ominięcie problemu definiowania inteligencji poprzez zastosowanie praktycznego testu: czy człowiek może odróżnić maszynę od człowieka? tylko na podstawie ich odpowiedzi konwersacyjnych w wymianie tekstowej? Według Turinga, jeśli ekspert nie jest w stanie odróżnić komputera od osoby, komputer 36 moralnych maszyn należy uznać za inteligentny ze wszystkich praktycznych powodów. Ten standard stał się powszechnie znany jako test Turinga. Kryterium to ma wady, niemniej jednak przedstawia jasny cel, do którego inżynierowie mają dążyć przy tworzeniu inteligentnych systemów. Czy można opracować przydatny test moralny Turinga? Omówimy to później. Propozycja może być równie kontrowersyjna (i prawdopodobnie nieosiągalna), jak oryginalny test Turinga. Na razie każdy projekt nakierowany na wdrożenie jakiegoś aspektu podejmowania decyzji moralnych w sztucznej inteligencji będzie wymagał sprecyzowania kryteriów oceny jego sukcesu. Różne kryteria będą skutkować różnymi akcentami na takie cechy, jak logiczna spójność, język lub inteligencja emocjonalna. Zanim jednak przejdziemy do szczegółów tworzenia i oceny AMA, zajmiemy się dwoma rodzajami problemów, które często napotykamy podczas prezentacji tej pracy. Jakie będą ludzkie konsekwencje próby mechanizacji podejmowania decyzji moralnych? I czy próba przekształcenia maszyn w inteligentnych agentów jest tak błędna, jak dążenie alchemików do zmiany ołowiu w złoto?




Moralność Maszyny (VII)


Konieczność inżynierii?


W Kodeksie Etyki Krajowego Stowarzyszenia Inżynierów Zawodowych (NSPE) pierwszy "podstawowy kanon" głosi, że inżynierowie "mają nadrzędne znaczenie dla bezpieczeństwa, zdrowia i dobra ogółu". Jeśli nadanie maszynom standardów moralnych poprawiłoby dobrobyt i bezpieczeństwo publiczne, to amerykańscy inżynierowie są zobowiązani przez swój własny kodeks etyczny, aby tak się stało. Gdzie mogliby zacząć? Zadanie wydaje się przytłaczające, ale wszystkie zadania inżynieryjne mają charakter przyrostowy, opierając się na wcześniejszych technologiach. Przedstawimy ramy dla zrozumienia ścieżek od obecnej technologii do zaawansowanych AMA. Nasze ramy mają dwa wymiary: autonomię i wrażliwość na wartości. Te wymiary są niezależne, o czym wie rodzic każdego nastolatka. Większa autonomia nie zawsze jest równoważona zwiększoną wrażliwością na wartości innych; dotyczy to zarówno technologii, jak i nastolatków. Najprostsze narzędzia nie mają ani autonomii, ani wrażliwości. Młotki nie podnoszą się samodzielnie i nie wbijają gwoździ ani nie są wrażliwe na kciuki, które przeszkadzają. Ale nawet technologie bliskie dolnemu krańcowi obu wymiarów w naszych ramach mogą mieć pewien rodzaj "moralności operacyjnej" w swoim projekcie. Broń z mechanizmem zabezpieczającym przed dziećmi jest pozbawiona autonomii i czułości, ale jej konstrukcja zawiera wartości, które Kodeks NSPE popierałaby. Jednym z głównych osiągnięć w dziedzinie "etyki inżynierskiej" ostatnich dwudziestu pięciu lat było podniesienie świadomości inżynierów na temat tego, jak ich własne wartości wpływają na proces projektowania oraz ich wrażliwości na wartości innych w trakcie projektowania. . Kiedy proces projektowania jest podejmowany z pełnym uwzględnieniem wartości etycznych, ten rodzaj moralnej "moralności operacyjnej" maszyny pozostaje całkowicie pod kontrolą projektantów i użytkowników narzędzia. Drugą teoretyczną skrajnością są systemy o dużej autonomii i dużej wrażliwości na wartości, zdolne do pełnienia roli godnych zaufania podmiotów moralnych. To, że ludzkość nie ma takiej technologii, jest oczywiście głównym naszym tematem. Jednak pomiędzy "moralnością operacyjną" a odpowiedzialną sprawczością moralną znajduje się wiele stopni tego, co nazywamy "moralnością funkcjonalną" - od systemów, które działają jedynie w ramach akceptowalnych standardów zachowania, do systemów inteligentnych zdolnych do oceny niektórych moralnie znaczących aspektów ich własnych działań. . Sfera moralności funkcjonalnej obejmuje zarówno systemy, które mają znaczną autonomię, ale niewielką wrażliwość etyczną, jak i te, które mają małą autonomię, ale dużą wrażliwość etyczną. Przykładem tego pierwszego są autopiloty. Ludzie ufają, że będą latać skomplikowanymi samolotami w różnych warunkach, przy minimalnym nadzorze człowieka. Są stosunkowo bezpieczne i zostały zaprojektowane z uwzględnieniem innych wartości, na przykład komfortu pasażerów podczas wykonywania manewrów. Cele związane z bezpieczeństwem i komfortem są jednak realizowane na różne sposoby. Bezpieczeństwo jest zapewnione poprzez bezpośrednie monitorowanie wysokości lotu i warunków otoczenia oraz ciągłą regulację klap skrzydłowych i innych powierzchni sterowych samolotu, aby utrzymać pożądany kurs. Komfort pasażerów nie jest bezpośrednio monitorowany i, o ile jest przewidziany, odbywa się to poprzez wstępne zakodowanie określonych ograniczeń manewrowania w parametrach pracy autopilota. Samolot może przechylać się znacznie bardziej stromo niż podczas wykonywania skrętu, ale autopilot jest zaprogramowany tak, aby nie obracał się tak gwałtownie, aby zdenerwować pasażerów. W normalnych warunkach eksploatacji konstrukcja autopilota zapewnia jego działanie w granicach moralności funkcjonalnej. W nietypowych warunkach pilot-człowiek, który jest świadomy specjalnych potrzeb pasażera, na przykład chorego pasażera lub specjalnych pragnień pasażera, na przykład poszukiwaczy dreszczyku emocji, może odpowiednio dostosować swój lot. Jednym z przykładów systemów, które mają niewielką autonomię, ale pewien stopień wrażliwości etycznej, jest system wspierania decyzji etycznych, który zapewnia decydentom dostęp do istotnych moralnie informacji. Większość z tych istniejących systemów mieści się w sferze moralności operacyjnej, a nie funkcjonalnej. Ponadto, gdy zajmują się kwestiami etycznymi, zwykle ma to miejsce w celach edukacyjnych. Programy są tak skonstruowane, aby uczyć ogólnych zasad, a nie analizować nowych przypadków. Na przykład oprogramowanie prowadzi uczniów przez historycznie ważne lub hipotetyczne przypadki. Jednak niektóre programy pomagają klinicystom wybrać odpowiednie z etycznego punktu widzenia działania, na przykład MedEthEx, system ekspercki w dziedzinie etyki lekarskiej zaprojektowany przez zespół męża i żony ,informatyka Michaela Andersona i filozof Susan Anderson. W efekcie MedEthEx angażuje się w pewne podstawowe rozumowanie moralne. Załóżmy, że jesteś lekarzem, który ma sprawną umysłowo pacjentkę, która odmówiła leczenia, które Twoim zdaniem stanowi jej najlepszą nadzieję na przeżycie. Czy ponownie spróbować ją przekonać (możliwe naruszenie poszanowania autonomii pacjentki), czy też zaakceptować jej decyzję (możliwe naruszenie obowiązku zapewnienia jak najbardziej korzystnej opieki)? Prototyp MedEthEx skłania opiekuna do udzielenia odpowiedzi na szereg pytań dotyczących sprawy. Następnie, na podstawie modelu ekspertyzy wyniesionej z podobnych spraw, wydaje opinię o etycznie właściwym sposobie postępowania. W dalszej części opiszemy bardziej szczegółowo teorię etyczną stojącą za MedEthEx. Na razie ważne jest to, że system Andersonów nie ma autonomii i nie jest w pełni rozwiniętym AMA, ale ma rodzaj funkcjonalnej moralności, która zapewnia platformę do dalszego rozwoju. Ważne jest, aby zrozumieć, że te przykłady mają jedynie charakter ilustracyjny. Autopiloty mają autonomię tylko w bardzo ograniczonej dziedzinie. Autopilot nie może opuścić kokpitu, aby pocieszyć zrozpaczonego pasażera. MedEthEx udziela porad tylko w bardzo niewielkim zakresie przypadków. Oprogramowanie jest całkowicie zależne od ludzi, którzy dostarczają informacji istotnych dla jego przypadków, a praktycy muszą zdecydować, czy zastosować się do jego zaleceń. Niemniej jednak kwestie etyczne pojawiają się nawet w tych ograniczonych dziedzinach, a inżynierska strona moralności maszyn będzie opierać się na takich podstawowych początkach. Te niezależne kroki w każdym wymiarze są istotne dla moralności maszyny, podobnie jak próby osiągnięcia postępu w obu wymiarach jednocześnie. Jednym z takich projektów był Kismet, robot opracowany przez absolwentów MIT pod kierunkiem Rodneya Brooksa i najbardziej utożsamiany z pracami Cynthii Breazeal. Kismet to próba połączenia reaktywności emocjonalnej z autonomiczną aktywnością robota. Głowa robota Kismeta ma rysunki charakterystyczne dla niemowląt i młodych zwierząt. Poruszając głową, uszami, brwiami, powiekami i ustami jest w stanie pokazać osiem stanów emocjonalnych, w tym strach, zdziwienie, zainteresowanie i smutek, a także zamknąć oczy i wycofać się w pozę przypominającą sen. Rzeczywisty stan emocjonalny robota jest określany na podstawie analizy intonacji głosu mówiącego i innych czynników, na przykład tego, czy system szuka stymulacji lub jest nadmiernie stymulowany. Kismet może odwrócić spojrzenie i skierować uwagę na to, na co wskazuje dana osoba. Kismet jest zaprogramowany na zmianę, ponieważ angażuje się w coś, co wydaje się być rozmową, czekając na cichą przestrzeń przed wtrąceniem odpowiedzi na ludzką mowę. Chociaż pozorny język, którym mówi Kismet, jest bełkotem, może wydawać się dość wrażliwy na sygnały społeczne - na przykład intonację głosu mówiącego, z którym robot wchodzi w interakcję - nawet jeśli system nie ma rzeczywistego zrozumienia tego, co człowiek myśli lub jest. powiedzenie. Na przykład intonacje głosu, które można zinterpretować jako karcenie, wywołują spoglądanie w dół przez robota z widocznym wstydem. Kismet, obecnie na emeryturze i wystawiany w Muzeum MIT, został zaprojektowany do odczytywania bardzo podstawowych wskazówek społecznych i reagowania własnymi prostymi gestami behawioralnymi. Do zdolności Kismeta należą reakcje na uwagę i bliskość człowieka. Na przykład Kismet może się cofnąć, gdy osoba pochyli się zbyt blisko. Stopień, w jakim jest dopuszczalne, aby jedna osoba znajdowała się twarzą w twarz innej osoby, jest prawdopodobnie bliższy etykiecie niż etyce i różni się w zależności od kultury. Niemniej jednak działania Kismeta są przykładem moralności operacyjnej, ponieważ programiści sięgnęli po wartości, które są ważne dla budowania zaufania i współpracy. Kismet nie ma wyraźnej reprezentacji wartości ani zdolności rozumowania wartości. Pomimo tych ograniczeń wiele osób uważa, że ich interakcje z Kismetem są bardzo fascynujące. Umieszczając Kismeta w sferze moralności operacyjnej, nie lekceważymy. Dziedzina sztucznej moralności musi opierać się na istniejących platformach, a Kismet jest wynikiem pewnych znaczących pomysłów na temat tego, jak sprawić, by maszyny zachowywały się w sposób, który ludzie uznają za angażujący. W ramach eksperymentu w robotyce społecznej Kismet z dużym powodzeniem wykazał, w jaki sposób roboty mogą wywoływać naturalne i intuicyjne reakcje społeczne u ludzi. Autopiloty, systemy wspomagania decyzji i roboty z podstawowymi zdolnościami do angażowania się w interakcje obciążone emocjami stanowią punkt wyjścia dla dziedziny sztucznej moralności. Takie systemy, które mieszczą się w domenie moralności operacyjnej lub bardzo ograniczonej moralności funkcjonalnej, są względnie bezpośrednim rozszerzeniem wartości ich projektantów. Projektanci muszą przewidzieć większość okoliczności, w których będą działać ich systemy, a działania dostępne w tych okolicznościach mieszczą się w wąskich granicach. Pisemne instrukcje bezpieczeństwa próbują rozwiązać problem odpowiedniego, bezpiecznego i etycznego użytkowania operatorom, ale nie zawsze im to udaje!
Ponieważ technologia autonomicznego podejmowania decyzji staje się coraz bardziej rozpowszechniona, przewidujemy, że (ro) botyści zdają sobie sprawę, że ich własny kod zawodowy sprawia, że opracowanie AMA jest imperatywem inżynieryjnym. Niektórzy mogą się zastanawiać, czy nie próbujemy strzelać do księżyca, kiedy powinniśmy skupić się na kilku prostszych sztuczkach. Zadanie projektowania systemów jest wystarczająco trudne bez wprowadzania źle zdefiniowanego pojęcia wartości. Rozważ systemy zatwierdzające zakupy kartą kredytową. Czyż ludzie nie powinni być zadowoleni, że te systemy chronią klientów i banki przed nieuczciwymi zakupami, nawet jeśli czasami klienci czują się niedogodni, gdy ich próby zakupu są odrzucane? ("Komputer mówi, że nie…") Oprogramowanie analizujące aktywność pod kątem oszukańczych wzorców zawsze można ulepszyć, więc dlaczego nie skoncentrować się na tym bez martwienia się o wbudowanie w system wyraźnego rozumowania etycznego? Prawdą jest oczywiście, że analizę wzorców można ulepszyć, ale tylko do pewnego stopnia. Inżynierowie oprogramowania i bankierzy, którzy projektują i wdrażają system, nie są w stanie dokładnie przewidzieć wszystkich okoliczności, w których ludzie będą próbowali używać swoich kart kredytowych. Całkowicie niewinne zakupy, a czasem nawet zakupy awaryjne, zostaną zablokowane, ponieważ komputery banku uznają je za "podejrzane". Z punktu widzenia inżyniera (i bankiera) problemem jest zrównoważenie dopuszczalnej stopy fałszywie dodatniej (błędne zidentyfikowanie niewinnych zakupów jako oszukańczych) z niedopuszczalnym odsetkiem fałszywie ujemnym (błędna niemożność zidentyfikowania oszukańczej działalności). Dla bankierów to, co jest do zaakceptowania, to przede wszystkim kwestia kosztów, które mogą przerzucić na swoich klientów. Większość klientów jest gotowa zaakceptować sporadyczne niedogodności (i zakłopotanie) związane z odmową zakupu, jeśli oznacza to, że są chronieni przed stratami finansowymi i bólami głowy, które mogą wyniknąć z powodu kradzieży karty kredytowej. Niektórzy klienci będą martwić się konsekwencjami dla prywatności wynikającymi ze zdolności banku do powiązania wzorców użytkowania. W tym przypadku mniej interesują nas nikczemne cele ludzi, którzy mają dostęp do takich baz danych, a bardziej zdolność samych komputerów do rozpoznawania, kiedy sprawą etyczną do zrobienia jest udzielenie kredytu nawet wtedy, gdy analiza wskazuje na większe ryzyko dla banku. Ponieważ istniejące podejście do analizy wzorców ma nieodłączne ograniczenia w zakresie ochrony tego, co ludzie cenią, inżynierowie są zobowiązani przez własne ideały do poszukiwania alternatywnych podejść, które obiecują wyjście poza te ograniczenia. Być może myślisz, że mylimy się, jeśli uważamy, że ideały inżynieryjne powinny mieć pierwszeństwo przed celami korporacyjnymi. W końcu firmy obsługujące karty kredytowe nie są umownie zobowiązane do zatwierdzania zakupów, więc korzystanie z automatycznych systemów zatwierdzania nie wiąże się z żadnymi kwestiami etycznymi. Ale zaakceptowanie tego rozumowania oznacza już zajęcie stanowiska w merytorycznej kwestii moralnej, a mianowicie, czy moralność korporacyjna ogranicza się do kontraktów zagadnienia. Projektanci systemów autonomicznych, którzy decydują się ignorować szersze konsekwencje decyzji podejmowanych przez ich maszyny, implicite wbudowują w te systemy określony zestaw wartości. To, czy systemy autonomiczne powinny uwzględniać tylko te czynniki, które są istotne dla rentowności korporacji, które je zatrudniają, oraz ustaleń umownych, które istnieją między korporacjami a ich klientami, jest samo w sobie kwestią etyczną. Być może myślisz, że jesteśmy podwójnie naiwni, jeśli wierzymy, że argumenty moralne mogą przesłonić ostateczne wyniki. Uważamy jednak, że coraz bardziej wyrafinowane formy moralności funkcjonalnej, a ostatecznie w pełni rozwinięte AMA, przyniosą firmom korzyści finansowe. Jednym ze źródeł tej korzyści będzie to, że systemy te umożliwią zaoferowanie lepszych usług niż konkurencja. Niedoskonałe systemy autoryzacji zakupów, które są obecnie w użyciu, prowadzą do frustracji klientów, a czasami do innych firm. Jeśli masz szczęście skontaktować się z operatorem, tak jak Colin, gdy odmówiono mu zakupu paliwa w Kalifornii, możesz mieć problem z rozwiązaniem. Ale każdy napotkał sytuacje z automatycznymi systemami telefonicznymi, w których interwencja człowieka była niedostępna. W celu wzmocnienia tego, co nazywamy moralnością operacyjną tych systemów odpowiadających, duże korporacje próbują teraz pisać oprogramowanie wykrywające sfrustrowanych (a także "ważnych") klientów i szybko kierując ich do ludzkiego agenta. Jednak nawet jeśli ktoś dotrze do człowieka, może on pracować w ramach ograniczeń określonych przez program komputerowy i może nie mieć wystarczającej autonomii, aby rozwiązać problem. Sfrustrowani klienci szkodzą biznesowi, podczas gdy wynik finansowy zmusza korporacje do włączania coraz większej liczby decyzji bez nadzoru do programów maszyn. Oprogramowanie, które jest wrażliwe na wartości klientów i może podejmować decyzje zbliżone do decyzji moralnie dobrego agenta, pomoże uzyskać wynik finansowy, a nie zaszkodzi.


Moralność Maszyny (VI)


Bezpośrednie niebezpieczeństwa


Możliwość katastrofy ludzkiej w wyniku użycia (ro)botów zdolnych do śmiercionośnej siły jest oczywista i wszyscy ludzie mogą mieć nadzieję, że projektanci takich systemów zastosują odpowiednie zabezpieczenia. Jednakże, ponieważ (ro)botyczne systemy są coraz bardziej osadzone w prawie każdym aspekcie społeczeństwa, od finansów po komunikację po bezpieczeństwo publiczne, prawdziwy potencjał szkód najprawdopodobniej wyłoni się z nieoczekiwanej kombinacji wydarzeń. Po 11 września 2001 roku, eksperci zwrócili uwagę na podatność amerykańskiej sieci energetycznej na atak terrorystycznych hakerów, zwłaszcza biorąc pod uwagę zależność sieci od starego oprogramowania i sprzętu. Jest bardzo realna możliwość, że duży procent sieci energetycznej może zostać wyłączony na tygodnie, a nawet miesiące. Aby temu zapobiec, wiele podatnego na ataki oprogramowania i sprzętu aktualizuje się za pomocą bardziej wyrafinowanych zautomatyzowanych systemów. To sprawia, że sieć elektroenergetyczna jest coraz bardziej zależna od decyzji podejmowanych przez skomputeryzowane systemy sterowania. Nikt nie jest w stanie w pełni przewidzieć, jak te decyzje mogą się rozegrać w nieprzewidzianych okolicznościach. Niewystarczająca koordynacja między systemami obsługiwanymi przez różne przedsiębiorstwa użyteczności publicznej zwiększa niepewność. Zarządzający siecią elektryczną muszą zrównoważyć zapotrzebowanie na energię ze strony przemysłu i społeczeństwa z potrzebą utrzymania podstawowych usług. Podczas awarii i przepięć decydują, kto traci moc. Decydenci, czy to ludzie, czy oprogramowanie, stają w obliczu konkurencyjnych wartości ochrony sprzętu przed uszkodzeniem i minimalizowania szkód dla użytkowników końcowych. Jeśli sprzęt zostanie uszkodzony, szkody mogą się narastać w miarę wydłużania się czasu przywrócenia usługi. Decyzje te obejmują sądy wartościujące. Ponieważ systemy stają się coraz bardziej autonomiczne, osądy te nie będą już w rękach ludzkich operatorów. Systemy, które są ślepe na odpowiednie wartości, które powinny kierować decyzjami w niepewnych warunkach, są receptą na katastrofę. Nawet dzisiaj działania systemów komputerowych mogą być pojedynczo dość małe, ale łącznie bardzo poważne. Peter Norvig, dyrektor ds. Badań w Google, zauważa, że obecnie w Stanach Zjednoczonych każdego dnia dochodzi do od 100 do 200 zgonów z powodu błędów medycznych, a wiele z tych błędów medycznych ma związek z komputerami. Są to takie błędy, jak podanie niewłaściwego leku, obliczenie niewłaściwej dawki, od 100 do 200 zgonów dziennie. Nie jestem pewien, ile dokładnie z nich chcesz przypisać błędom komputera, ale to jakaś ich część. Można śmiało powiedzieć, że co dwa lub trzy miesiące mamy odpowiednik 11 września pod względem liczby zgonów z powodu błędów komputera i procesów medycznych. Zagrożenia, jakie stwarzają systemy stosowane w medycynie, są dalekie od katastrof science fiction, jakie stwarzają systemy komputerowe zaangażowane w podejmowanie jednoznacznych decyzji, które są szkodliwe dla ludzi. Te systemy nie są HAL, aby zabić astronautów będących pod jego opieką. Nie jest to też Matrix, z robotami nastawionymi na zniewalanie nieświadomych ludzi. Prawdopodobnie większość szkód powodowanych przez dzisiejsze (ro)boty można przypisać wadliwym komponentom lub złemu projektowi. Wstępne raporty wskazują, że jeden z elementów półautonomicznego działa, które zabiło dziewięciu żołnierzy z RPA w 2007 r., zawiódł. Inne szkody przypisuje się projektantom, którzy nie zbudowali odpowiednich zabezpieczeń, rozważą wszystkie nieprzewidziane sytuacje, z którymi system będzie się mierzył, lub wyeliminują błędy oprogramowania. Pragnienia menedżerów dotyczące wprowadzania na rynek lub testowania w terenie systemów, których bezpieczeństwo nie zostało udowodnione, również stanowią zagrożenie dla społeczeństwa, podobnie jak wadliwe poleganie na systemach, które nie sprostają zadaniu zarządzania złożonością nieprzewidzianych sytuacji. Jednak granica między wadliwymi komponentami, niewystarczającym projektem, nieodpowiednimi systemami i jednoznaczną oceną wyborów przez komputery będzie coraz trudniejsza do narysowania. Podobnie jak w przypadku ludzkich decydentów, którzy dokonują złych wyborów, ponieważ nie uwzględniają wszystkich istotnych informacji lub nie biorą pod uwagę wszystkich ewentualności, ludzie mogą odkryć nieadekwatność (ro) botów, na których polegają, po nieoczekiwanej katastrofie. Dyrektorzy korporacji często obawiają się, że ograniczenia etyczne zwiększą koszty i utrudnią produkcję. Społeczne odbiór nowych technologii może być utrudniony przez nadmierne obawy dotyczące zagrożeń, jakie wiążą się z nimi. Jednak zdolność podejmowania decyzji moralnych pozwoli na wdrażanie AMA w kontekstach, które w innym przypadku mogłyby zostać uznane za zbyt ryzykowne, otworzy aplikacje i zmniejszy zagrożenia, jakie stwarzają te technologie. Dzisiejsze technologie - zautomatyzowane sieci energetyczne, zautomatyzowane systemy finansowe, zrobotyzowane zwierzęta domowe i automatyczne odkurzacze - są dalekie od całkowicie autonomicznych maszyn. Ale ludzkość jest już w punkcie, w którym systemy inżynieryjne podejmują decyzje, które mogą wpływać na życie ludzi. Ponieważ systemy stają się bardziej wyrafinowane, a ich zdolność do autonomicznego funkcjonowania w różnych kontekstach i środowiskach rozszerza się, ważniejsze będzie dla nich posiadanie własnych podprogramów etycznych. Wybory systemów powinny być wrażliwe na ludzi i na rzeczy ważne dla ludzi. Ludzkość będzie potrzebować tych maszyn, które będą samorządne: zdolne do oceny etycznej akceptowalności opcji, przed którymi stoją. Rosalind Picard, dyrektor Affective Computing Group na MIT, dobrze to ujęła, pisząc: "Im większa wolność maszyny, tym bardziej będą potrzebować standardów moralnych ".


Moralność Maszyny (V)


Maszyny do etycznego zabijania?


Jeśli powyższe przykłady pozostawiają cię nieprzekonanym, że istnieje natychmiastowa potrzeba przemyślenia moralnego rozumowania w (ro)botach , rozważ to. Zdalnie sterowane pojazdy (ROV) są już wykorzystywane do celów wojskowych. W październiku 2007 r. Foster-Miller Inc. wysłał do Iraku w celu rozmieszczenia trzech zdalnie sterowanych robotów z karabinami maszynowymi, wykorzystujących specjalny system obserwacji broni specjalnej (SWORDS). Foster-Miller rozpoczął również sprzedaż wersji mieczy z bronią do organów ścigania w Stanach Zjednoczonych. Według Foster-Millera MIECZE i ich następca MAARS (modułowy zaawansowany uzbrojony system robotyczny) nie powinny być uważane za autonomiczne, ale są to pojazdy ROV. Inna firma, iRobot Corporation, której Packbot został wdrożony szeroko w Iraku, zapowiedział również Warrior X700, robota wojskowego, który może przenosić broń . Jednak zastosowania robotów nie zatrzymają się na ROV. Półautonomiczne systemy robotyczne, takie jak pociski manewrujące, już przenoszą bomby. Wojsko wykorzystuje również półautonomiczne roboty przeznaczone do usuwania bomb i inwigilacji. Kongres Stanów Zjednoczonych nakazał w 2000 roku, że jedna trzecia wojskowych pojazdów naziemnych i samolotów głębokiego uderzenia została zastąpiona pojazdami robotycznymi. Zgodnie z historią z New York Times z 2005 roku, celem Pentagonu jest zastąpienie żołnierzy autonomicznymi robotami. Niektórzy pomyślą, że ludzie powinni całkowicie zaprzestać budowania robotów, jeśli będą używane do działań wojennych. Choć może to być godne uwagi, zostanie skonfrontowane z uzasadnieniem, że takie systemy uratują życie żołnierzy i pracowników organów ścigania. Nie wiemy, kto wygra tę polityczną argumentację, ale wiemy, że jeśli zwolennicy maszyn bojowych wygrają ten dzień, nadszedł czas, aby zacząć myśleć o wbudowanych ograniczeniach etycznych, które będą dla nich potrzebne. i wszystkie (ro) botyczne aplikacje. Rzeczywiście, Ronald Arkin, robotnik z Georgia Institute of Technology, otrzymał fundusze od armii amerykańskiej w 2007 roku na rozpoczęcie opracowywania sprzętu i oprogramowania, które sprawią, że zrobotyzowane maszyny bojowe będą zdolne do przestrzegania etycznych standardów wojny. Te dość obszerne wytyczne, szanowane przez cywilizowane narody, obejmują prawa nie walczących, a także prawa żołnierzy wroga, którzy próbują się poddać. Jednak zapewnienie, że roboty postępują zgodnie z etycznymi standardami wojny, jest trudnym zadaniem, które pozostaje daleko w tyle za rozwojem coraz bardziej wyrafinowanych systemów broni robotycznej do użycia w działaniach wojennych


Moralność Maszyny (IV)


Przypadki współczesne


Scenariusze science fiction z komputerami lub robotami w amoku mogą być zabawne, ale te historie zależą od technologii, która nie istnieje dzisiaj i może nigdy nie istnieć. Walizki na wózki są fajnymi eksperymentami myślowymi na kursach etyki w college′ach, ale mogą również sprawiać, że obawy etyczne wydają się raczej odległe od codziennego życia - prawdopodobieństwo, że znajdziesz się w stanie uratować życie, wrzucając bardzo dużego niewinnego przechodnia na tor kolejowy jest odległy. Niemniej jednak codzienne życie pełne jest przyziemnych decyzji, które mają konsekwencje etyczne. Nawet coś tak powszechnego, jak otwieranie drzwi nieznajomym, jest częścią etycznego krajobrazu, chociaż granica między etyką a etykietą może nie zawsze być łatwa do ustalenia. Istnieje pilna potrzeba zastanowienia się nad projektem AMA, ponieważ systemy autonomiczne weszły już w etyczny krajobraz codziennej działalności. Na przykład kilka lat temu, kiedy Colin Allen jechał z Teksasu do Kalifornii, nie próbował użyć określonej karty kredytowej, dopóki nie zbliżył się do wybrzeża Pacyfiku. Kiedy po raz pierwszy próbował użyć tej karty do zatankowania samochodu, karta kredytowa została odrzucona. Myśląc, że coś jest nie tak z pompami na tej stacji, podjechał do innej i tam wypróbował kartę. Kiedy włożył kartę do pompy, wyświetliła się wiadomość polecająca mu przekazanie karty kasjerowi w sklepie. Nie do końca gotów oddać swoją kartę nieznajomemu i zawsze kwestionujący instrukcje komputerowe, Colin zamiast tego zadzwonił pod bezpłatny numer na odwrocie karty. Scentralizowany komputer wystawcy karty kredytowej ocenił użycie karty prawie 2000 mil od domu bez śladu zakupów w całym kraju jako podejrzanych i automatycznie oznaczył jego konto. Agent w firmie obsługującej karty kredytowe wysłuchał opowieści Colina i usunął flagę, która ograniczała korzystanie z jego karty. Incydent ten polegał na tym, że zasadniczo autonomiczny komputer zainicjował działania, które były potencjalnie pomocne lub szkodliwe dla ludzi. Nie oznacza to jednak, że komputer podjął decyzję moralną lub zastosował osąd etyczny. Znaczenie etyczne działania podjętego przez ten komputer wynikało całkowicie z wartości tkwiących w zaprogramowanych w nim regułach. Prawdopodobnie wartości zaprojektowane w systemie uzasadniają niedogodności dla posiadaczy kart i właścicieli firm, które okazjonalnie tracą sprzedaż. Firma obsługująca karty kredytowe chce zminimalizować nieuczciwe transakcje. Klienci pragną uniknąć nieuczciwych opłat. Jednak klienci mogą rozsądnie uważać, że systemy powinny być wrażliwe na coś więcej niż wynik finansowy. Gdyby Colin potrzebował paliwa do swojego samochodu z powodu nagłego wypadku, nie byłoby łatwo założyć, że ta niedogodność była tego warta. Systemy autonomiczne mogą również powodować bardzo powszechne niedogodności. W 2003 roku dziesiątki milionów ludzi i niezliczone firmy we wschodnich Stanach Zjednoczonych i Kanadzie zostały dotknięte awarią zasilania. Zanik zasilania był spowodowany skokiem napięcia , który wystąpił, gdy przegrzana linia elektryczna opadła na drzewo tuż za Cleveland. Tym, co zaskoczyło śledczych, było to, jak szybko ten incydent przekształcił się w łańcuch zapoczątkowanych przez komputer wyłączeń w elektrowniach w ośmiu stanach i części Kanady. Gdy gwałtowny wzrost mocy wymknął się spod kontroli firmy elektrycznej w Ohio, agenci oprogramowania i systemy sterowania w innych elektrowniach uruchomiły procedury wyłączania, prawie nie pozostawiając czasu na interwencję człowieka. Tam, gdzie byli zaangażowani ludzie, czasami potęgowali problemy z powodu niewystarczających informacji lub braku skutecznej komunikacji. Do przywrócenia energii elektrycznej odbiorcom w całej północno-wschodniej sieci energetycznej potrzeba było dni, a czasem tygodni. Na początku przerwy Wendell Wallach pracował w domu w Connecticut. On i jego sąsiedzi stracili prąd, ale tylko na kilka sekund. Najwyraźniej technicy w jego lokalnej firmie użyteczności publicznej zdali sobie sprawę z tego, co się dzieje , szybko zignorowali automatyczne procedury wyłączania i odłączyli usługi elektryczne w południowej Nowej Anglii od sieci energetycznej. Jednak był to rzadki sukces. Sama skala sieci uniemożliwia skuteczny nadzór człowieka. Fińska firma zajmująca się bezpieczeństwem IT, F-Secure, zbadała usterkę. Po przejrzeniu sześciuset-stronicowego zapisu rozmów między operatorami sieci elektroenergetycznych w USA w momentach poprzedzających awarię, Mikko Hyppönen z firmowego laboratorium wirusów komputerowych doszedł do wniosku, że główną rolę odegrał robak komputerowy Blaster. Z transkryptów wynika, że operatorzy nie otrzymali prawidłowych informacji przed awarią, ponieważ ich komputery działały nieprawidłowo. Komputery i czujniki monitorujące sieć energetyczną korzystały z tych samych kanałów komunikacyjnych, przez które rozprzestrzeniał się Blaster. W analizie firmy Hyppönen tylko jeden lub dwa zainfekowane komputery w sieci mogły powstrzymać czujniki przed przekazywaniem danych w czasie rzeczywistym do operatorów energii, co mogło doprowadzić do błędu operatora, który został zidentyfikowany jako bezpośrednia przyczyna awarii. W idealnym świecie nie byłoby wirusów, a systemy sterowania byłyby zaprogramowane tak, aby wyłączały się tylko wtedy, gdy zminimalizowałoby to trudności klientów. Jednak w świecie, w którym błąd operatora jest faktem, a ludzie nie są w stanie monitorować całego stanu oprogramowania systemowego, presja na zwiększoną automatyzację będzie rosła. Wraz ze wzrostem złożoności takich systemów każda ocena konfliktów między wartościami - na przykład utrzymanie przepływu energii elektrycznej do użytkowników końcowych w porównaniu z ochroną komputerów przed wirusami staje się coraz bardziej problematyczna - coraz trudniej jest przewidzieć, czy aktualizacja oprogramowania teraz czy później staje się coraz trudniejsza. jest mniej lub bardziej prawdopodobne, że doprowadzi do przyszłych problemów. W obliczu takiej niepewności istnieje potrzeba stworzenia autonomicznych systemów do ważenia ryzyka względem wartości. Powszechne stosowanie systemów autonomicznych sprawia, że pilnie trzeba zapytać, jakie wartości mogą i powinny promować. Bezpieczeństwo i dobrostan ludzi to podstawowe wartości, co do których istnieje powszechna zgoda. Stosunkowo młoda dziedzina etyki komputerowej również skupiła się na konkretnych kwestiach - na przykład na utrzymaniu prywatności, własności i praw obywatelskich w erze cyfrowej; ułatwianie handlu elektronicznego; hamowanie hakowania, robaków i wirusów oraz innych nadużyć technologii; i opracowywanie wytycznych dotyczących etykiety netto. Nowe technologie otworzyły miejsce dla przestępczości cyfrowej, ułatwiły nieletnim dostęp do ostrej pornografii i okradły ludzi za pomocą niechcianych reklam i niechcianych e-maili, ale niezwykle trudno było ustalić wartości, regulacje rządowe i procedury, które będą sprzyjać cele etyki komputerowej. Gdy pojawią się nowe przepisy i wartości, ludzie będą oczywiście chcieli, aby były one honorowane przez tworzone przez nich AMA. Moralność maszynowa poszerza dziedzinę etyki komputerowej, zachęcając do dyskusji na temat kwestii technologicznych związanych z przekształcaniem samych komputerów w jawnych moralistów. Jedna istotna kwestia na przecięciu moralności maszynowej i etyki komputerowej dotyczy botów do eksploracji danych, które wędrują po sieci, wyszukując informacje z niewielkim lub żadnym poszanowaniem standardów prywatności. Łatwość, z jaką informacje mogą być kopiowane przy użyciu komputerów, podważyła prawne standardy praw własności intelektualnej i wymusiła przewartościowanie praw autorskich. Niektóre kwestie prywatności i własności w etyce komputerowej dotyczą wartości, które niekoniecznie są szeroko rozpowszechnione, ale często w interesujący sposób łączą się z podstawowymi wartościami. Projekt Internet Archive przechowuje migawki Internetu od 1996 roku i udostępnia te archiwa za pośrednictwem swojego Wayback Machine. Migawki te często zawierają materiał, który od tego czasu został usunięty z Internetu. Chociaż istnieje mechanizm żądania usunięcia materiałów z archiwum, było kilka przypadków, w których ofiary lub sprawcy przestępstw pozostawili ślad na Wayback Machine, mimo że ich oryginalne strony zostały usunięte. Obecnie roboty zbierające dane wykorzystywane przez Internet Archive nie są w stanie ocenić moralnego znaczenia gromadzonych przez nie materiałów.


Moralność Maszyny (III)


Dobrzy i źli sztuczni agenci?


Nadchodzą systemy autonomiczne, czy ludziom się to podoba, czy nie. Czy będą etyczne? Czy będą dobre? Co w tym kontekście rozumiemy przez "dobre"? Nie chodzi tylko o bycie instrumentalnie dobrym-dobrym w odniesieniu do określonego celu. Deep Blue to dobry komputer do gry w szachy, ponieważ wygrywa w szachy, ale nie o to nam chodzi. Nie mamy też na myśli tego, w jakim sensie dobre odkurzacze czyszczą podłogi, nawet jeśli są robotami i robią to przy minimalnym nadzorze człowieka. Te "towary" są mierzone pod kątem określonych celów projektantów i użytkowników. Tego rodzaju dobrego zachowania, które może być wymagane od systemów autonomicznych, nie da się tak łatwo określić. Czy dobry robot wielofunkcyjny powinien otwierać drzwi nieznajomym, nawet jeśli oznacza to opóźnienie dla właściciela robota? (Czy powinno to być ustawienie określone przez właściciela?) Czy dobry niezależny agent powinien ostrzegać nadzorcę, jeśli nie może on podjąć działania bez wyrządzenia ludziom krzywdy? (Jeśli tak, czy jest dostatecznie autonomiczna?) Kiedy mówimy o dobru w tym sensie, wkraczamy w dziedzinę etyki. Wprowadzenie sztucznych czynników do domeny etyki nie oznacza po prostu stwierdzenia, że mogą wyrządzić krzywdę. Spadające drzewa powodują szkody, ale to nie oznacza, że wchodzą one w zakres etyki. Agenci moralni monitorują i regulują swoje zachowanie w świetle szkód, jakie mogą spowodować ich działania lub obowiązków, których mogą zaniedbać. Ludzie nie powinni oczekiwać niczego innego od AMA. Dobry czynnik moralny to taki, który potrafi wykryć możliwość krzywdy lub zaniedbania obowiązków i może podjąć kroki w celu uniknięcia lub zminimalizowania takich niepożądanych skutków. Istnieją dwie drogi do osiągnięcia tego: Po pierwsze, programista może być w stanie przewidzieć możliwe kierunki działań i zapewnić zasady prowadzące do pożądanego rezultatu w zakresie okoliczności, w których AMA ma zostać wdrożone. Alternatywnie, programista może zbudować bardziej otwarty system, który zbiera informacje, próbuje przewidzieć konsekwencje swoich działań i dostosowuje reakcję na wyzwanie. Taki system może nawet zaskoczyć programistów pozornie nowatorskimi lub kreatywnymi rozwiązaniami etycznych wyzwań. Być może nawet najbardziej wyrafinowani AMA nigdy nie będą tak naprawdę agentami moralnymi w tym samym sensie, w jakim istoty ludzkie są agentami moralnymi. Ale gdziekolwiek pojawia się pytanie, czy maszyna może być rzeczywiście etyczna (lub nawet prawdziwie autonomiczna), pozostaje wyzwanie inżynieryjne: jak sprawić, by sztuczni agenci działali tak, jakby byli agentami moralnymi. Jeśli mają być zaufane maszyny wielofunkcyjne, działające bez przeszkód od ich projektantów lub właścicieli i zaprogramowane do elastycznego reagowania w środowiskach świata rzeczywistego lub wirtualnego, należy mieć pewność, że ich zachowanie spełnia odpowiednie normy. Wykracza to poza tradycyjne bezpieczeństwo produktów. Oczywiście roboty, które powodują zwarcia i powodują pożary, nie są bardziej tolerowane niż tostery, które to robią. Jeśli jednak system autonomiczny ma zminimalizować szkody, musi być także "świadomy" możliwych szkodliwych konsekwencji swoich działań i musi wybierać swoje działania w świetle tej "wiedzy", nawet jeśli te określenia są tylko metaforycznie stosowane do maszyn


Moralność Maszyny (II)


Dlaczego moralność maszynowa?


Kierowcy samochodów i inżynierowie robotów

Uciekający trolejbus zbliża się do rozwidlenia torów. Jeśli trolejbus będzie mógł poruszać się po swoim obecnym torze, zginie pięcioosobowa załoga. Jeśli maszynista skieruje pokjazd na drugi tor, samotny pracownik zostanie zabity. Gdybyś prowadził ten trolejbus, co byś zrobił? Co zrobiłby komputer lub robot prowadzący ten trolebus? Walizki na kółkach, wprowadzone po raz pierwszy przez filozofa Filippę Foot w 1967 r., są podstawą wstępnych kursów etyki. W ciągu ostatnich czterech dekad mnożyły się walizki na kółkach. A co, jeśli to obserwator, a nie kierowca, ma moc przełączenia przełącznika i zmiany kursu wózka? A co, jeśli nie ma przełącznika, ale obserwator mógłby powstrzymać trolejbus przed wjechaniem na pięciu pracowników, zrzucając bardzo dużego człowieka z mostu na tory i wysyłając go na śmierć? Te warianty wywołują różne intuicyjne odpowiedzi. Niektórzy ludzie spuszczją na kierowców inne obowiązki niż osoby postronne, zobowiązując ich do działania, mimo że osoby postronne nie miałyby takiego obowiązku. Wiele osób uważa, że pomysł przewrócenia dużego mężczyzny na tor - co stało się znane jako "grubasowa" wersja dylematu - jest o wiele bardziej kontrowersyjny niż zmiana przełącznika, mimo że liczba ciał jest ta sama. Sprawy trolejbusowe stały się również przedmiotem badań psychologów i neuronaukowców. Joshua Greene i jego koledzy przeprowadzili badanie mózgu pokazujące, że wersja "grubasa" wywołuje znacznie silniejszą reakcję w ośrodkach przetwarzania emocji w mózgu niż wersja "przełączająca ścieżki". Badania naukowe odpowiedzi ludzi na przypadki wózków nie dają odpowiedzi na podstawowe pytania filozoficzne dotyczące dobra i zła. Jednak takie badania wskazują na złożoność ludzkich odpowiedzi na pytania natury etycznej. Biorąc pod uwagę pojawienie się nowoczesnych systemów pociągów "bez maszynisty", które są już powszechne na lotniskach i zaczynają pojawiać się w bardziej skomplikowanych sytuacjach, na przykład w metrze londyńskim oraz w metrze w Paryżu i Kopenhadze, walizki mogą być jedną z pierwszych granic dla sztucznej moralność? Systemy bez kierowcy sprawiają, że maszyny podejmują w ułamku sekundy decyzje, które mogą mieć konsekwencje dla życia lub śmierci. Wraz ze wzrostem złożoności sieci kolejowej rośnie również prawdopodobieństwo dylematów podobnych do podstawowego przypadku wózka. Na przykład, jak zautomatyzowane systemy powinny obliczyć, gdzie kierować pociągiem, który wymknął się spod kontroli? Inżynierowie oczywiście twierdzą, że systemy są w rzeczywistości bezpieczniejsze niż ludzkie sterowniki. Ale opinia publiczna zawsze była sceptyczna. Londyńskie metro po raz pierwszy testowało pociągi bez maszynisty ponad cztery dekady temu, w kwietniu 1964 r. W tamtych czasach pociągi bez maszynisty napotykały polityczny opór ze strony pracowników kolei, którzy wierzyli, że ich miejsca pracy są zagrożone, oraz pasażerów, którzy nie byli do końca przekonani co do roszczeń dotyczących bezpieczeństwa. Z tych powodów London Transport nadal dawał maszynistom odpowiedzialność za prowadzenie pociągów przez stacje. Nastroje się jednak zmieniają i pociągi Central Line w Londynie są obecnie sterowane przez stacje przez komputery, mimo że ludzcy kierowcy pozostają w kabinie w roli "nadzorcy". Większość pasażerów prawdopodobnie uważa, że ludzcy kierowcy są bardziej elastyczni i potrafią radzić sobie w sytuacjach awaryjnych niż skomputeryzowani kontrolerzy. Ale to może być ludzka pycha. Morten Sondergaard, odpowiedzialny za bezpieczeństwo kopenhaskiego metra, twierdzi, że "pociągi automatyczne są bezpieczne i bardziej elastyczne w sytuacjach awaryjnych ze względu na szybkość, z jaką można zmieniać rozkłady jazdy". Niemniej mimo postępu technicznego pasażerowie pozostają sceptyczni. Paryscy planiści metra twierdzą, że jedyne problemy związane z pociągami bez maszynisty są "polityczne, a nie techniczne". Bez wątpienia część oporu można pokonać, po prostu instalując pociągi bez maszynisty i ustanawiając rekord bezpieczeństwa. Jesteśmy jednak pewni, że większość pasażerów nadal myślałaby, że istnieją sytuacje kryzysowe wykraczające poza zakres jakiegokolwiek programowania, w których preferowana byłaby ludzka ocena. W niektórych z tych sytuacji właściwy osąd wymagałby rozważań etycznych, ale dzisiejsze pociągi bez maszynisty są oczywiście nieświadome etyki. Czy inżynierowie oprogramowania mogą i powinni próbować ulepszyć swoje systemy oprogramowania, aby wyraźnie odzwierciedlały wymiary etyczne? Uważamy, że nie można właściwie odpowiedzieć na to pytanie bez lepszego zrozumienia, co jest możliwe w dziedzinie sztucznej moralności. Z pozycji niewiedzy łatwo jest argumentować, że cel sztucznej moralnej sprawczości jest niemożliwy do osiągnięcia. Ale jakie są dokładnie wyzwania i przeszkody we wdrażaniu sztucznej moralności?

Istnieje potrzeba poważnej dyskusji na ten temat. Rewolucja komputerowa nadal promuje poleganie na automatyzacji, a systemy autonomiczne w coraz większym stopniu odpowiadają za różnorodne decyzje mające konsekwencje etyczne. Jak komfortowo powinno być oddanie swojego życia i dobrobytu w ręce systemów ignorujących etycznie? Są tu pociągi bez maszynisty. Znacznie bardziej odległe technologicznie są (ro)boty, które potrafią dostrzec, że wrzucenie dużego człowieka na tory może uratować pięć istnień i fizycznie przeprowadzić taką akcję. W międzyczasie zagrożenie atakiem terrorystycznym doprowadziło do zwiększenia zdalnej obserwacji nie tylko rozjazdów kolejowych, ale także mostów, tuneli i nienadzorowanych odcinków torów. Trwają prace nad systemami monitoringu lotnisk, które skanują twarze pasażerów i próbują dopasować je do bazy danych znanych terrorystów. Pozornie systemy te mają na celu ostrzeganie przełożonych o wystąpieniu nietypowej aktywności. Można jednak łatwo wyobrazić sobie sytuację awaryjną, w której system mógłby działać automatycznie w celu przekierowania pociągu lub zamknięcia części terminalu lotniska, gdy nadzorca nie ma wystarczająco dużo czasu, aby sprawdzić i przeciwdziałać działaniu. Załóżmy, że pociąg bez maszynisty jest w stanie zidentyfikować, że pięć osób na jednym torze to pracownicy kolei, a ta na drugim to dziecko.

Czy system powinien uwzględniać te informacje w swojej decyzji? W miarę wzbogacania się informacji dostępnych dla zautomatyzowanych systemów, dylematy moralne, przed którymi staje, staną się coraz bardziej złożone. Wyobraź sobie komputer, który rozpoznaje, że samotna osoba na jednym torze nie jest pracownikiem kolei, ale wybitnym obywatelem, od którego zależy dobrobyt i utrzymanie dużej liczby rodzin. Jak bardzo ludzie chcieliby, aby ich komputery rozważały konsekwencje działań, które rozważają? Odkładając na bok walizki, inżynierowie często myślą, że jeśli bot (ro) napotka trudną sytuację, powinien po prostu zatrzymać się i poczekać, aż człowiek rozwiąże problem. Joe Engelberger, "ojciec" robotyki przemysłowej, był jednym z zainteresowanych opracowaniem robotów usługowych, które są w stanie zaspokoić potrzeby osób starszych i innych osób w domu. Wendell Wallach zapytał go, czy robot usługowy w domu potrzebuje moralnych zdolności podejmowania decyzji. Czy robot nie musiałby rozróżniać, czy przeszkodą na swojej drodze jest dziecko, zwierzak, czy coś w rodzaju pustej papierowej torby i na podstawie oceny wybrać działanie? Engelberger uważał, że taki system nie potrzebuje zdolności do refleksji nad swoimi działaniami. "Jeśli coś stoi na przeszkodzie, to po prostu się zatrzymuje" - powiedział. Oczywiście tego rodzaju bezczynność może być również problematyczna, kolidując z obowiązkami lub zadaniami określonymi dla robota usługowego, np. Dostarczanie leków co kilka godzin obsługiwanej osobie. Dla inżyniera myślącego o własnej odpowiedzialności bezczynność może wydawać się bardziej rozsądnym rozwiązaniem. W etyce istnieje długa tradycja uważania działań za bardziej winne niż zaniechania. (Pomyśl na przykład o rzymskokatolickim rozróżnieniu między "grzechami zaniedbania" a bardziej poważnymi "grzechami popełnienia przestępstwa"). Wrócimy do kwestii odpowiedzialności na koniec, ale główny punkt dotyczący teraz jest tak, że nawet gdyby istniało moralne rozróżnienie między działaniem a biernością, projektant AMA nie mógłby po prostu wybrać bezczynności jako substytutu dobrego działania.


Moralność Maszyny



W laboratorium obliczeń afektywnych w Massachusetts Institute of Technology (MIT), naukowcy projektują komputery, które potrafią odczytywać ludzkie emocje. Instytucje finansowe wdrożyły światowe sieci komputerowe, które co minutę oceniają i zatwierdzają lub odrzucają miliony transakcji. Robotycy w Japonii, Europie i Stanach Zjednoczonych opracowują roboty usługowe do opieki nad osobami starszymi i niepełnosprawnymi. Japońscy naukowcy pracują również nad tym, aby androidy wyglądały na nie do odróżnienia od ludzi. Rząd Korei Południowej ogłosił, że zamierza umieścić robota w każdym domu do 2020 roku. We współpracy z firmą Samsung opracowuje także roboty do przenoszenia broni, aby chronić granicę z Koreą Północną. W międzyczasie działalność człowieka jest ułatwiana, monitorowana i analizowana przez chipy komputerowe w każdym możliwym urządzeniu, od samochodów po pojemniki na śmieci, oraz przez "boty" programowe w każdym możliwym do wyobrażenia środowisku wirtualnym, od surfowania po sieci po zakupy online. Dane gromadzone przez te (ro)boty - termin, którego będziemy używać do określenia zarówno robotów fizycznych, jak i agentów oprogramowania - są wykorzystywane do celów komercyjnych, rządowych i medycznych. Wszystkie te zmiany zbiegają się w kierunku tworzenia (ro)botów, których niezależność od bezpośredniego nadzoru człowieka i których potencjalny wpływ na dobrostan ludzi jest kwestią naukową. Izaak Asimow, ponad pięćdziesiąt lat temu, przewidział potrzebę zasad etycznych, które będą kierować zachowaniem robotów. Jego Trzy prawa robotyki są tym, o czym ludzie myślą w pierwszej kolejności, gdy myślą o moralności maszyn.

1. Robot nie może zranić człowieka ani przez bezczynność pozwolić aby człowieka, został skrzywdzony.
2. Robot musi wykonywać rozkazy wydawane mu przez ludzi, chyba że takie rozkazy byłyby sprzeczne z pierwszym prawem.
3. Robot musi chronić swoje własne istnienie, o ile taka ochrona nie jest sprzeczna z pierwszym lub drugim prawem.

Asimov jednak pisał historie. Nie stawił czoła wyzwaniu, przed którym stoją dzisiejsi inżynierowie: zapewnić, że budowane przez nich systemy są korzystne dla ludzkości i nie wyrządzają ludziom krzywdy. To, czy Trzy Prawa Asimova są naprawdę pomocne w zapewnieniu, że (ro)boty będą działać moralnie, jest jednym z pytań, które rozważymy . Przewidujemy, że w ciągu najbliższych kilku lat nastąpi katastrofalny incydent spowodowany przez system komputerowy podejmujący decyzję niezależną od ludzkiego nadzoru. Już w październiku 2007 r. półautonomiczne działko robotyczne rozmieszczone przez armię południowoafrykańską uległo awarii, zabijając 9 żołnierzy i raniąc 14 innych - chociaż wczesne raporty zawierały sprzeczne informacje o tym, czy była to awaria oprogramowania czy sprzętu. Potencjał jeszcze większej katastrofy wzrośnie, gdy takie maszyny staną się w pełni autonomiczne. Nawet jeśli nadchodząca klęska nie zabije tylu ludzi, co akty terrorystyczne z 11 września, sprowokuje stosunkowo szeroki zakres reakcji politycznych. Reakcje te będą obejmowały wezwania do zwiększenia wydatków na poprawę technologii, aby wezwać do całkowitego zakazu tej technologii (jeśli nie otwartej "wojny z robotami"). Troska o bezpieczeństwo i korzyści społeczne zawsze była na czele inżynierii. Ale dzisiejsze systemy zbliżają się do poziomu złożoności, który, jak twierdzimy, wymaga od nich podejmowania decyzji moralnych - zaprogramowania ich za pomocą "etycznych procedur", aby zapożyczyć frazę ze Star Treka. To rozszerzy krąg agentów moralnych poza ludzi, do systemów sztucznie inteligentnych, które nazwiemy sztucznymi agentami moralnymi (AMA). Nie wiemy dokładnie, jak rozwinie się katastrofalny incydent, ale poniższa opowieść może dać pewne wyobrażenie. Poniedziałek 23 lipca 2012 r. zaczyna się jak każdy zwykły dzień. Być może trochę po ciepłej stronie w większości Stanów Zjednoczonych, przy spodziewanym wysokim zapotrzebowaniu na energię elektryczną, ale nie na rekordowym poziomie. Koszty energii w Stanach Zjednoczonych rosną, a spekulanci podnoszą ceny kontraktów terminowych, a także cenę spot ropy, która zbliża się do 300 dolarów za baryłkę. W ostatnich tygodniach federalna Komisja Papierów Wartościowych i Giełd (SEC) zwróciła uwagęna nieco nietypowe zautomatyzowane działania handlowe na rynkach derywatów energii, zapewniły jednak organy regulacyjne, że ich programy działają w normalnych warunkach. O godzinie 10:15 na Wschodnim Wybrzeżu cena ropy nieznacznie spada w odpowiedzi na wiadomość o odkryciu dużych nowych rezerw na Bahamach. Oprogramowanie w oddziale inwestycyjnym Orange i Nassau Bank oblicza, że może przynieść zysk, wysyłając e-mailem jednej czwartej swoich klientów zalecenie kupna kontraktów terminowych na ropę, tymczasowo podnosząc ceny na rynku spot, ponieważ dealerzy gromadzą zapasy, aby zaspokoić przyszły popyt , a następnie sprzedaje kontrakty terminowe pozostałym klientom.

Ten plan zasadniczo polega na zestawieniu jednego sektora klientów z pozostałymi, co jest oczywiście całkowicie nieetyczne. Jednak oprogramowanie banku nie zostało zaprogramowane do uwzględniania takich subtelności. W rzeczywistości scenariusz zarabiania pieniędzy autonomicznie zaplanowany przez komputer jest niezamierzoną konsekwencją wielu indywidualnie rozsądnych zasad. Programiści nie mogli łatwo przewidzieć zdolności komputera do wymyślenia tego schematu. Niestety e-mail "kup", który komputer wysyła bezpośrednio do klientów, działa zbyt dobrze. Inwestorzy, którzy są przyzwyczajeni do tego, że cena ropy rośnie i rośnie, entuzjastycznie podążają za modą, a cena spotowa ropy nagle wzrasta znacznie powyżej 300 USD i nie wykazuje żadnych oznak spowolnienia. Na wschodnim wybrzeżu jest teraz 11:30, a temperatury rosną szybciej, niż przewidywano. Oprogramowanie kontrolujące sieć elektroenergetyczną New Jersey oblicza, że może zaspokoić nieoczekiwane zapotrzebowanie, jednocześnie obniżając koszty energii, wykorzystując swoje elektrownie węglowe zamiast generatorów opalanych olejem. Jednak jeden z generatorów spalających węgiel doznaje eksplozji podczas pracy z maksymalną wydajnością i zanim ktokolwiek będzie mógł działać, kaskadowe przerwy w dostawie prądu powodują odcięcie zasilania dla połowy wschodniego wybrzeża. Wall Street jest dotknięte, ale dopiero organy regulacyjne SEC zauważyły, że wzrost przyszłych cen ropy naftowej był komputerową grą typu shell pomiędzy kontami Orange i Nassau Bank, które były przedmiotem automatycznego obrotu. W miarę rozprzestrzeniania się wiadomości, a inwestorzy planują wzmocnić swoje pozycje, jasne jest, że ceny gwałtownie spadną, gdy tylko rynki ponownie się otworzą, a miliony dolarów zostaną utracone. W międzyczasie przerwy w dostawie energii rozprzestrzeniły się na tyle daleko, że wiele osób nie jest w stanie uzyskać niezbędnej pomocy medycznej, a wielu innych utknęło daleko od domu. Wykrywając rozprzestrzeniające się awarie jako potencjalną akcję terrorystyczną, oprogramowanie do kontroli bezpieczeństwa na krajowym lotnisku Reagana automatycznie ustawia się na najwyższy poziom bezpieczeństwa i stosuje biometryczne kryteria dopasowania, które sprawiają, że bardziej niż zwykle ludzie są określani jako podejrzani. Oprogramowanie, które nie ma mechanizmu ważenia korzyści płynących z zapobieżenia atakowi terrorystycznemu i niedogodności, jakie jego działania spowodują dla dziesiątek tysięcy osób na lotnisku, identyfikuje grupę pięciu pasażerów oczekujących na lot 231 do Londynu , jako potencjalnych terrorystów. Ta duża koncentracja "podejrzanych" podczas jednego lotu powoduje, że program uruchamia blokadę lotniska i wysłanie zespołu bezpieczeństwa wewnętrznego do terminalu. Ponieważ pasażerowie są już zdenerwowani i zdenerwowani, sytuacja na bramce lotu 231 wymyka się spod kontroli i padają strzały. Ostrzeżenie wysłane z Departamentu Bezpieczeństwa Wewnętrznego do linii lotniczych, że atak terrorystyczny może być w toku, skłania wielu przewoźników do podjęcia działań w celu wylądowania ich flot. W zamieszaniu spowodowanym przez dużą liczbę samolotów próbujących wylądować na lotnisku O′Hare w Chicago, odrzutowiec zderza się z Boeingiem 777, zabijając 157 pasażerów i załogę. Siedem osób ginie, gdy gruz ląduje na przedmieściach Chicago w Arlington Heights i powoduje pożar w bloku domów. W międzyczasie automatyczne karabiny maszynowe zainstalowane na granicy amerykańsko-meksykańskiej otrzymują sygnał, który stawia je w stan gotowości. Są zaprogramowane do działania autonomicznego w warunkach czerwonego kodu, umożliwiając wykrywanie i eliminację potencjalnie wrogich celów bez bezpośredniego nadzoru człowieka. Jeden z tych robotów strzela do Hummera wracającego z wycieczki terenowej w pobliżu Nogales w Arizonie, niszcząc pojazd i zabijając trzech obywateli USA. Zanim Wschodnie Wybrzeże zostanie przywrócone, a rynki zostaną ponownie otwarte kilka dni później, setki ofiar śmiertelnych i utrata miliardów dolarów można przypisać osobno zaprogramowanym decyzjom tych wielu współdziałających ze sobą systemów. Efekty są odczuwalne od miesięcy. Czas może udowodnić nam, że jesteśmy biednymi prorokami katastrofy. Naszym zamiarem w przewidywaniu takiej katastrofy nie jest wywołanie sensacji ani zaszczepienie strachu. To nie jest tekst o okropnościach technologii. Naszym celem jest zorganizowanie dyskusji w sposób konstruktywny przy projektowaniu AMA. Celem naszych przewidywań jest zwrócenie uwagi na potrzebę rozpoczęcia pracy nad moralnymi maszynami już teraz, a nie za dwadzieścia do stu lat, kiedy technologia dogoni science fiction. Dziedzina moralności maszyn rozszerza dziedzinę etyki komputerowej poza troskę o to, co ludzie robią ze swoimi komputerami, na pytania o to, co maszyny same robią. (Będziemy używać zamiennie terminów etyka i moralność). Omawiamy kwestie technologiczne związane z przekształcaniem samych komputerów w jawnie moralne osoby. W miarę jak sztuczna inteligencja (AI) rozszerza zakres autonomicznych agentów, wyzwanie związane z tym, jak zaprojektować tych agentów tak, aby szanowały szerszy zestaw wartości i praw, których ludzie żądają od ludzkich agentów moralnych, staje się coraz pilniejsze.

Czy ludzkość naprawdę chce, aby komputery podejmowały ważne moralnie decyzje? Wielu filozofów technologii ostrzegało, że ludzie zrzekają się odpowiedzialności na rzecz maszyn. Filmy i magazyny pełne są futurystycznych fantazji na temat niebezpieczeństw związanych z zaawansowanymi formami sztucznej inteligencji. Powstające technologie są zawsze łatwiejsze do zmodyfikowania, zanim się zakorzenią. Jednak często nie jest możliwe dokładne przewidzenie wpływu nowej technologii na społeczeństwo, dopóki nie zostanie ona powszechnie przyjęta. Dlatego niektórzy krytycy uważają, że ludzie powinni zachować ostrożność i zrezygnować z rozwoju potencjalnie niebezpiecznych technologii. Wierzymy jednak, że siły rynkowe i polityczne zwyciężą i zażądają korzyści, jakie te technologie mogą zapewnić. Tak więc na każdym zainteresowanym tą technologią spoczywa obowiązek bezpośredniego zajęcia się zadaniem wprowadzenia moralnych decyzji w komputerach, robotach i wirtualnych "botach" w sieciach komputerowych. Jak już wspomniano, ten tekst nie dotyczy horroru technologii. Tak, maszyny nadchodzą. Tak, ich istnienie będzie miało niezamierzony wpływ na życie i dobrobyt ludzi, nie wszystkie z nich są dobre. Ale nie, nie wierzymy, że coraz większa zależność od systemów autonomicznych podkopie podstawowe człowieczeństwo ludzi. Naszym zdaniem również zaawansowane roboty nie zniewolą ani nie wytępią ludzkości, jak to ma miejsce w najlepszych tradycjach science fiction. Ludzie zawsze dostosowywali się do swoich produktów technologicznych, a korzyści płynące z posiadania wokół siebie autonomicznych maszyn najprawdopodobniej przewyższą koszty. Jednak ten optymizm nie przychodzi za darmo. Nie można po prostu usiąść i mieć nadzieję, że wszystko ułoży się dobrze. Jeśli ludzkość ma uniknąć konsekwencji złych, autonomicznych, sztucznych agentów, ludzie muszą być przygotowani do intensywnego przemyślenia, co trzeba zrobić, aby uczynić takie środki dobrymi. Proponując zbudowanie moralnych maszyn decyzyjnych, czy nadal jesteśmy zanurzeni w sferze fizyki naukowej - a może, co gorsza, w tej kategorii fantazji naukowej, często kojarzonej ze sztuczną inteligencją? Zarzut mógłby być uzasadniony, gdybyśmy odważnie przewidzieli początek AMA lub twierdzili, że "to tylko kwestia czasu", zanim zaczniemy chodzić, a mówiące maszyny zastąpią ludzi, do których ludzie zwracają się teraz po wskazówki moralne. Nie jesteśmy jednak futurystami i nie wiemy, czy pozorne bariery technologiczne dla sztucznej inteligencji są rzeczywiste, czy iluzoryczne. Nie jesteśmy też zainteresowani spekulacjami na temat tego, jak będzie wyglądało życie, gdy twój doradca będzie robotem, ani nawet przewidywaniem, czy to kiedykolwiek nastąpi. Raczej interesują nas kolejne etapy wynikające z obecnych technologii które sugerują potrzebę etycznego podejmowania decyzji. Być może małe kroki ostatecznie doprowadzą do powstania w pełni rozwiniętej sztucznej inteligencji - miejmy nadzieję, że będzie to mniej morderczy odpowiednik HAL z 2001: Odyseja kosmiczna - ale nawet jeśli w pełni inteligentne systemy pozostaną poza zasięgiem, uważamy, że inżynierowie stoją przed prawdziwym problemem, którego nie można adresowane wyłącznie przez inżynierów. Czy jest za wcześnie, aby poruszać ten temat? My tak nie uważamy. Roboty przemysłowe wykonujące powtarzalne zadania mechaniczne powodowały obrażenia, a nawet śmierć. Przewiduje się, że popyt na roboty domowe i usługowe stworzy światowy rynek dwa razy większy niż roboty przemysłowe do 2010 r. I czterokrotnie większy do 2025 r. Wraz z pojawieniem się robotów domowych i usługowych, roboty nie są już ograniczone do kontrolowanych środowisk przemysłowych, gdzie są tylko przeszkolone. pracownicy mają z nimi kontakt. Małe zwierzęta-roboty, na przykład AIBO firmy Sony, są zwiastunami większych robotów. Kupiono miliony robotów odkurzających, na przykład "Roomba" firmy iRobot. Pojawili się już podstawowi kurierzy robotów w szpitalach i przewodniki po robotach w muzeach. Dużą uwagę poświęca się opracowywaniu robotów usługowych, które będą wykonywać podstawowe zadania domowe oraz pomagać osobom starszym i domowym. Programy komputerowe inicjują miliony transakcji finansowych z wydajnością, której ludzie nie są w stanie powielić. Decyzje dotyczące zakupu, a następnie odsprzedaży akcji, towarów i walut w oprogramowaniu są podejmowane w ciągu kilku sekund, wykorzystując potencjał zysku, którego żaden człowiek nie jest w stanie wykryć w czasie rzeczywistym, i reprezentując znaczący procent aktywności na rynkach światowych.

Zautomatyzowane systemy finansowe, zrobotyzowane zwierzęta domowe i automatyczne odkurzacze wciąż są dalekie od naukowych scenariuszy w pełni autonomicznych maszyn podejmujących decyzje, które radykalnie wpływają na dobrostan człowieka. Chociaż rok 2001 minął, HAL Arthura C. Clarke&primle;a pozostaje decyzją i można bezpiecznie założyć, że scenariusz zagłady Terminatora nie zostanie zrealizowany przed datą sprzedaży do 2029 r. Być może nie jest tak bezpiecznie, aby obstawiać przeciwko Matrixowi zrealizowanemu do 2199 roku. Jednak ludzie są już w punkcie, w którym systemy inżynieryjne podejmują decyzje, które mogą wpływać na życie ludzi i konsekwencje etyczne. W najgorszych przypadkach mają głęboki negatywny wpływ. Czy można budować AMA? W pełni świadome sztuczne systemy z pełnymi ludzkimi zdolnościami moralnymi mogą prawdopodobnie pozostać na zawsze w sferze naukowej. Niemniej jednak uważamy, że wkrótce powstaną bardziej ograniczone systemy. Takie systemy będą miały pewną zdolność oceny etycznych konsekwencji ich działań - na przykład, czy nie mają innego wyjścia, jak tylko naruszyć prawo własności w celu ochrony prawa do prywatności. Zadanie projektowania AMA wymaga poważnego spojrzenia na teorię etyczną, która wywodzi się z perspektywy skoncentrowanej na człowieku. Wartości i troski wyrażone w światowych tradycjach religijnych i filozoficznych nie są łatwe do zastosowania w maszynach. Systemy etyczne oparte na regułach, na przykład Dziesięciu Przykazaniach lub Trzech Praw Asimova dla robotów, mogą wydawać się nieco łatwiejsze do osadzenia w komputerze, ale jak pokazują liczne historie Asimova o robotach, nawet trzy proste zasady (później cztery) mogą spowodować wiele etycznych dylematy. Etyka Arystotelesa kładła nacisk na charakter ponad zasady: dobre działania wypływały z dobrego charakteru, a celem kwitnącej istoty ludzkiej było rozwinięcie cnotliwego charakteru. Oczywiście ludziom wystarczająco trudno jest rozwinąć własne cnoty, nie mówiąc już o rozwijaniu odpowiednich cnót dla komputerów lub robotów. Podjęcie wyzwania inżynierskiego związanego z przejściem od Arystotelesa do Asimowa i dalej będzie wymagało spojrzenia na początki ludzkiej moralności jako postrzegane w dziedzinie ewolucji, uczenia się i rozwoju, neuropsychologii i filozofii. Moralność maszynowa dotyczy w takim samym stopniu podejmowania decyzji przez człowieka, jak i filozoficznych i praktycznych kwestii wdrażania AMA. Refleksja i eksperymentowanie w budowaniu AMA zmusza nas do głębokiego przemyślenia tego, jak funkcjonują ludzie, jakie ludzkie zdolności mogą zostać wdrożone w maszynach, które ludzie projektują i jakie cechy naprawdę odróżniają ludzi od zwierząt lub od nowych form inteligencji, które ludzie tworzą. Tak jak sztuczna inteligencja pobudziła nowe kierunki dociekań w filozofii umysłu, tak moralność maszyn ma potencjał do stymulowania nowych kierunków docierania do etyki. Laboratoria robotyki i sztucznej inteligencji mogłyby stać się ośrodkami doświadczalnymi do testowania teorii podejmowania decyzji moralnych w systemach sztucznych. Z dotychczasowej dyskusji w sposób naturalny wyłaniają się trzy pytania. Czy świat potrzebuje AMA? Czy ludzie chcą, aby komputery podejmowały moralne decyzje? A jeśli ludzie uważają, że komputery podejmujące decyzje moralne są konieczne lub nieuniknione, w jaki sposób inżynierowie i filozofowie powinni przystąpić do projektowania AMA? Początek dotyczy pierwszego pytania, dlaczego ludzie potrzebują AMA. W Lekcji 1 omawiamy nieuchronność AMA i podajemy przykłady obecnych i innowacyjnych technologii, które są zbieżne w wyrafinowanych systemach, które będą wymagały pewnej zdolności do podejmowania decyzji moralnych. Omawiamy, w jaki sposób takie zdolności będą początkowo dość podstawowe, ale mimo to będą stanowić prawdziwe wyzwania. Nie najmniejszym z tych wyzwań jest określenie, jakie powinny być cele projektantów takich systemów - czyli co rozumiemy przez "dobre" AMA? W Lekcji 2 przedstawimy ramy dla zrozumienia trajektorii coraz bardziej wyrafinowanych AMA poprzez podkreślenie dwóch wymiarów: autonomii i wrażliwości na moralnie istotne fakty. Systemy znajdujące się na najniższym końcu tych wymiarów mają tylko to, co nazywamy "moralnością operacyjną" - to znaczy ich moralne znaczenie jest całkowicie w rękach projektantów i użytkowników. W miarę jak maszyny stają się coraz bardziej wyrafinowane, rodzaj "moralności funkcjonalnej" jest technologicznie możliwy, tak że same maszyny są w stanie oceniać wyzwania moralne i odpowiadać na nie. Jednak twórcy moralności funkcjonalnej w maszynach napotykają wiele ograniczeń wynikających z ograniczeń dzisiejszej technologii. Natura etyki nakłada inny zestaw ograniczeń na akceptację komputerów podejmujących decyzje etyczne. W ten sposób w naturalny sposób dochodzimy do pytania: Czy ludzie chcą, aby komputery podejmowały decyzje moralne. Obawy związane z AMA to szczególny przypadek bardziej ogólnych obaw dotyczących wpływu technologii na kulturę ludzką. Dlatego zaczynamy od przeglądu odpowiednich fragmentów filozofii technologii, aby zapewnić kontekst dla bardziej szczegółowych problemów zgłaszanych przez AMA.

Niektóre obawy, na przykład, czy AMA doprowadzą ludzi do zniesienia odpowiedzialności przed maszynami, wydają się szczególnie palące. Inne obawy, na przykład perspektywa dosłownego zniewolenia ludzi przez maszyny, wydają się nam wysoce spekulatywne. Nierozwiązany problem oceny ryzyka technologicznego polega na tym, jak poważnie można porównać katastrofalne możliwości z oczywistymi zaletami nowych technologii. Jak blisko może dojść do tego, że sztuczni agenci zostaną uznani za agentów moralnych, jeśli brakuje im ludzkich cech, na przykład świadomości i emocji? W Lekcji 4 zaczynamy od omówienia kwestii, czy "zwykła" maszyna może być czynnikiem moralnym. Przyjmujemy instrumentalne podejście, że chociaż pełnoprawna moralna sprawczość może wykraczać poza obecną lub przyszłą technologię, niemniej jednak istnieje duża przestrzeń między moralnością operacyjną a "prawdziwą" sprawczością moralną. Jest to nisza, którą zidentyfikowaliśmy jako moralność funkcjonalną w Lekcji 2. Celem Lekcji 4 jest omówienie przydatności bieżących prac nad sztuczną inteligencją do określania cech wymaganych do tworzenia AMA do różnych zastosowań. Po uporaniu się z tymi ogólnymi kwestiami sztucznej inteligencji, zwracamy uwagę na konkretną implementację podejmowania decyzji moralnych. Część 5 przedstawia w zarysie, co filozofowie i inżynierowie mają do zaoferowania sobie nawzajem, oraz opisuje podstawowe ramy odgórnego i oddolnego lub rozwojowego podejścia do projektowania AMA. W Lekcjiach 6 i 7 szczegółowo opisano podejście odgórne i oddolne. W Lekcji 6 omawiamy obliczalność i wykonalność koncepcji etyki opartych na regułach i obowiązkach, a także możliwość obliczenia efektu netto działania, zgodnie z wymaganiami konsekwencjalistycznego podejścia do etyki. W Lekcji 7 rozważymy podejścia oddolne, które stosują metody uczenia się, rozwoju lub ewolucji, mając na celu wyłanianie się zdolności moralnych z ogólnych aspektów inteligencji. Istnieją ograniczenia dotyczące obliczalności zarówno podejścia odgórnego, jak i oddolnego, które opisujemy w tych Lekcjach.

Nowe pole moralności maszyn musi uwzględniać te ograniczenia, badać mocne i słabe strony różnych podejść do programowania AMA, a następnie położyć podwaliny pod inżynierię AMA w wyrafinowany filozoficznie i poznawczo sposób. Z naszej dyskusji wynika, że pierwotne rozróżnienie między podejściem odgórnym i oddolnym jest zbyt uproszczone, aby uwzględnić wszystkie wyzwania, przed którymi staną projektanci AMA. Jest to prawdą zarówno na poziomie projektowania inżynierskiego, jak i, jak sądzimy, teorii etycznej. Inżynierowie będą musieli połączyć metody odgórne i oddolne, aby zbudować działające systemy. Trudności związane ze stosowaniem ogólnych teorii moralnych w sposób odgórny motywują również do dyskusji na temat zupełnie innej koncepcji moralności, która wywodzi się z Arystotelesa, a mianowicie etyki cnoty. Cnoty są hybrydą między podejściem odgórnym i oddolnym, ponieważ same cnoty można wyraźnie opisać, ale ich nabycie jako cech charakteru wydaje się zasadniczo procesem oddolnym. Omawiamy etykę cnoty dla AMA w Lekcji 8. Naszym celem jest nie tylko zadawanie wielu pytań, ale także zapewnienie zasobów do dalszego rozwoju tych tematów. W Lekcji 9 dokonujemy przeglądu narzędzi programowych, które są wykorzystywane do rozwoju komputerowego podejmowania decyzji moralnych. Podejścia odgórne i oddolne podkreślają znaczenie w etyce umiejętności rozumowania. Jednak duża część najnowszej literatury empirycznej na temat psychologii moralnej kładzie nacisk na zdolności poza racjonalnością. Emocje, towarzyskość, zrozumienie semantyczne i świadomość są ważne dla podejmowania decyzji moralnych przez człowieka, ale pozostaje otwarta kwestia, czy będą one istotne dla AMA, a jeśli tak, to czy można je wdrożyć w maszynach. W Lekcji 10 omawiamy najnowsze, nowatorskie badania naukowe, których celem jest wyposażenie komputerów i robotów w takie ponadnarodowe możliwości, a w Lekcji 11 przedstawiamy konkretne ramy, w których to, co racjonalne i ponadnarodowe, można połączyć w jednej maszynie. W Lekcji 12 wracamy do naszego drugiego pytania przewodniego, dotyczącego celowości podejmowania decyzji moralnych przez komputery, ale tym razem w celu sformułowania zaleceń dotyczących monitorowania i zarządzania zagrożeniami poprzez politykę publiczną lub mechanizmy zarządzania odpowiedzialnością społeczną i biznesową. Na koniec, w epilogu, pokrótce omawiamy, w jaki sposób projekt projektowania AMA wpływa z powrotem na ludzkie rozumienie siebie jako podmiotów moralnych oraz na naturę samej teorii etycznej. Ograniczenia, które widzimy w aktualnej teorii etycznej, dotyczące przydatności takich teorii do kierowania AMA, podkreślają głębokie pytania dotyczące ich celu i wartości.

Niektóre podstawowe decyzje moralne mogą być dość łatwe do wdrożenia w komputerach, podczas gdy umiejętność radzenia sobie z trudniejszymi dylematami moralnymi wykracza daleko poza obecną technologię. Bez względu na to, jak szybko i jak daleko ludzie robią postępy w opracowywaniu AMA, w procesie rozwiązywania tego problemu ludzie poczynią znaczący postęp w zrozumieniu, jakie naprawdę są niezwykłe stworzenia. Ćwiczenie przemyślenia sposobu, w jaki podejmowane są decyzje moralne z szczegółowością niezbędną do rozpoczęcia wdrażania podobnych zdolności w (ro) botach, jest więc ćwiczeniem samorozumienia. Nie możemy mieć nadziei, że uda nam się w pełni oddać sprawiedliwość tym kwestiom, a nawet wszystkim kwestiom poruszonym w całej książce. Jednak mamy szczerą nadzieję, że wychowując je w tej formie, zainspirujemy innych do podjęcia tego, co zostało przerwane, i podjęcia kolejnych kroków w kierunku przeniesienia tego projektu z teorii do praktyki, od filozofii do inżynierii i głębsze zrozumienie samej dziedziny etyki