Zaufanie w Cyberspace : Wieloagentowe ramy wyboru godnych zaufania dostawców usług

Od 2008 r. obserwuje się wzrost zainteresowania środowiskami zorientowanymi na usługi, które dążą do bezproblemowej integracji zasobów obliczeniowych i pamięci masowej. Kluczową cechą wszystkich tych systemów jest to, że dostawcy tych systemów oferują usługi, które mogą być wywoływane zdalnie, a użytkownicy wykorzystują te usługi do swoich aplikacji. Jednak pomimo wzrostu aktywności, licznych zalet i zainteresowania, istnieją pewne obawy, które zagrażają wizji tych środowisk jako nowego modelu zakupów IT i jego przyjęciu przez społeczność. Jednym z głównych problemów jest brak skutecznych metod zapewniania i wykrywania dostawców wrażliwych aplikacji użytkowników. Istnieje potrzeba wyboru usługodawców, ponieważ wrażliwe aplikacje i dane użytkowników są umieszczane w zasobach obliczeniowych usługodawców, w które można łatwo manipulować, chyba że dostawcy zapewnią bezpieczeństwo danych użytkowników. Do tej pory jedynym zapewnieniem ze strony dostawców dla użytkowników jest podpisanie umowy o gwarantowanym poziomie usług (SLA) przygotowanej przez dostawców tych systemów. Jednak z powodu nieuzasadnionego interesu usługodawców może się zdarzyć, że umowa SLA może zawierać niekompletne, fałszywe lub nawet niejasne opisy usług, co może wprowadzać użytkowników w błąd i sprawiać, że usługi będą otwarte, niepewne i zwodnicze. Co więcej, przy określaniu ustawodawstwa w umowie SLA, wewnętrzne lub zewnętrzne zasady, które miałyby być przestrzegane podczas tej usługi, nie mają z tym żadnego konotacji, ponieważ nie ma metody pomiaru, czy te pisemne zasady były rzeczywiście przestrzegane przez usługodawców, czy też nie. W związku z tym, jeśli użytkownicy są w stanie upewnić się co do usługodawcy przed przekazaniem swoich poufnych danych i aplikacji, ich pewność wykonania pracy przez tego konkretnego usługodawcę wzrasta, pomagając im delegować pracę bez obaw. W przypadku wyboru różnych dostawców tradycyjne metody, takie jak autoryzacja PKI, zawodzą z powodu skali i relacji ad hoc, które istnieją między dostawcami a żądającymi systemu. Ponieważ zaufanie i reputacja są postrzegane jako mierzalne przekonanie, które wykorzystuje godne zaufania doświadczenia do podejmowania decyzji w wielu dziedzinach, od starożytnego systemu rynku rybnego po handel elektroniczny, środowisko usług online, czujniki bezprzewodowe i sieci ad hoc do wybierania węzłów przekaźnikowych do przekazywania pakietów [ 6]. Nawet metody zarządzania oparte na zaufaniu zostały zastosowane w przypadku przetwarzania sieciowego i przetwarzania w chmurze poprzez wybór zasobów. Opierając się na pojęciu społeczeństwa ludzkiego, w którym rekomendacje są brane od zaufanych znajomych w celu podjęcia decyzji spośród mnóstwa wyborów, proponuje się wieloagentową strukturę rozwoju i oceny dostawców, opartą na mierniku ich reputacji. Klient użytkownika wybiera godnego zaufania agenta dostawcy dla swoich poufnych aplikacji za pomocą procesu rekomendacji społecznych, wysyłając zapytanie do swoich zaufanych znajomych, którzy z kolei mogą dalej wysyłać je do swoich znajomych w celu uzyskania rekomendacji, jeśli Ttimeout na to pozwala, gdzie Ttimeout to określony czas przez klienta użytkownika, aby uzyskać zalecenia. Jeśli jednak użytkownik jest nowy w systemie i nie ma żadnych godnych zaufania znajomych, to najpierw wchodziłby do sieci zaufania agentów, przyjmując rekomendacje innych agentów na temat ich godnych zaufania znajomych. Sieć zaufania to sieć agentów, w której każdy agent przechowuje informacje o zaufanych znajomych, tworząc w ten sposób „sieć”. Zalecenia przekazane agentowi użytkownika w celu podjęcia decyzji o zaufanych znajomych lub usługodawcach są podawane jako atrybuty żądanego podmiotu na podstawie funkcji rozkładu w czasie, przy założeniu, że najnowsze informacje mają większą wagę niż przeszłe interakcje. Aby poradzić sobie z niepewnością i niejasnością z tych zalecanych atrybutów, gdy są one podawane jako dane wejściowe do silnika wnioskowania rozmytego, atrybuty podają reputację jednostki jako dane wyjściowe, o które poproszono o rekomendacje. W przypadku obliczania reputacji rekomendowanych dostawców usług atrybuty dostarczane do silnika wnioskowania rozmytego są połączeniem ważonego, bezpośredniego doświadczenia, a także informacji zalecających. Podsumowując,  omówmy następujące punkty: Po pierwsze, wyjaśnia się potrzebę wyboru dostawców usług w środowiskach zorientowanych na usługi, a następnie uzasadnia to. Podstawy systemów wnioskowania rozmytego (FIS), które są używane do rozwiązywania niepewnych zaleceń, są omówione w następnej sekcji. Następnie znajduje się sekcja dotycząca priorytetyzacji dostawców usług korzystających z FIS w oparciu o reputację z aktualizacją zaufania do rekomendujących. Kończyt omówieniem dwóch aplikacji, w których można zastosować proponowaną strukturę

Nie udawaj Greka! Bycie taktycznym nautycznie

Walka na morzu była zupełnie inna niż na lądzie. Wielkie mocne strony myśliwców hoplitów (patrz wcześniejsza sekcja „Rozwijanie taktyki: formacje hoplitów”) nie były zbyt przydatne na wodzie. Dwie główne metody ataku to taranowanie i abordaż.

* Taranowanie: Ponieważ greckie statki siedziały nisko na wodzie, taranowanie spowodowało szkody tak poważne, że taranowany statek zatonął. Co zaskakujące, gdyby zostało to zrobione poprawnie, wyrządziłoby to atakującym bardzo niewielkie obrażenia.

* Abordaż: Podczas walki w zwarciu, abordaż był zwykle preferowaną metodą ataku i często odbywał się po taranowaniu. Wejście na pokład zwykle wymagało użycia haków, lin i innego sprzętu, aby utrzymać wrogi statek. W końcu Grecy opracowali coś, co Rzymianie nazywali corvus (łac. „kruk”), co było rodzajem mostu, który wisiał na wrogi statek. Walki wręcz miały miejsce w bitwach morskich, ale strony musiałyby być wystarczająco blisko siebie, aby to zrobić najpierw! Marines mogli naprawdę aktywnie współpracować ze sobą tylko wtedy, gdy statki się zbliżyły.

Ponieważ obie strony polegały na dość podobnym sprzęcie, Grecy musieli opracować strategie ataku, aby zyskać przewagę nad wrogami. Trzy główne strategie, zilustrowane na rysunku 5-4, obejmowały:

* Diekplous polegał na namierzeniu jednego statku w linii wroga i obróceniu go, otwierając dziurę w ich linii. Każdy wrogi statek, który odwrócił się, by pomóc uderzonemu okrętowi, w końcu odsłonił także swoją flankę dla atakujących.

* Kyklos był formacją defensywną używaną, gdy flota była przewyższana liczebnie lub ścigana przez szybszą flotę. Statki utworzyły krąg z taranami skierowanymi na zewnątrz, kierując się na ich prześladowców.

* Niebezpieczeństwo było atakiem, którego celem było oskrzydlenie linii wroga.

Zaufanie w Cyberspace : Niektóre najnowsze osiągnięcia i otwarte wyzwania

W poprzednich sekcjach omówiliśmy podstawy modelowania zaufania, argumentacji i ich roli w RS. W tym dziale chcemy dać czytelnikowi przedsmak nowych kierunków badań w obszarze argumentacji i systemów rekomendacji opartych na zaufaniu. Z pewnością nie jest to pełny przegląd, ale raczej wybór ostatnich wydarzeń w tej dziedzinie. W szczególności omówimy pokrótce następujące kwestie: wizualizacja relacji zaufania i ataków argumentowych w RS, złagodzenie problemu zimnego startu w sieci zaufania RS poprzez użycie argumentacji, badanie efektu zaangażowania argumentacji w proces rekomendacji i zbadania potencjału wpływów społecznych na agentów w systemie wieloagentowym. Parsons i inni, że problem zimnego startu użytkownika można złagodzić, włączając wymianę informacji w drodze argumentacji między użytkownikami. Pokazali, że nowi użytkownicy mogą skorzystać na rozumowaniu i propagowaniu wartości zaufania za pomocą argumentów. Może to być przydatne, aby uzyskać dobre rekomendacje z systemu. Jednak Victor wykazał, że użytkownicy zimnego startu w klasycznym sensie (którzy ocenili tylko kilka pozycji) są bardzo często również użytkownikami zimnego startu w sensie zaufania. W związku z tym należy zachęcać nowych użytkowników do komunikowania się z innymi użytkownikami poprzez argumentację i interakcję agentów, aby jak najszybciej rozszerzyć sieć zaufania, ale wybór, z kim chcą się połączyć, jest często trudnym zadaniem. Biorąc pod uwagę wpływ tego wyboru na dostarczone zalecenia, niezwykle ważne jest, aby przeprowadzić nowoprzybyłych przez ten wczesny etap procesu łączenia. Problem ten jest rozwiązywany poprzez identyfikację użytkowników o podobnych gustach. Autorzy pokazują, że dla użytkownika z zimnym startem połączenie z jednym ze zidentyfikowanych podobnych użytkowników jest znacznie korzystniejsze niż włączenie losowo wybranego użytkownika, zarówno pod względem zasięgu, jak i trafności generowanych rekomendacji. ”Donovan przedstawił PeerChooser, nową procedurę wizualizacji opartego na zaufaniu zespołowego filtrowania RS. Dokładniej, PeerChooser wizualizuje zarówno informacje pochodzące z tradycyjnej miary podobieństwa współczynnika korelacji Pearsona (PCC), jak i informacje pochodzące z bazowej przestrzeni zaufania generowanej na podstawie danych ratingowych. Jedną z głównych cech systemu jest możliwość wydobywania informacji o zaufaniu bezpośrednio od użytkownika w momencie rekomendacji. Odbywa się to poprzez przesuwanie określonych ikon (reprezentujących użytkowników w systemie) w interaktywnym interfejsie. W ten sposób użytkownik może wskazać swój nastrój i preferencje, aktywnie dostarczając w ten sposób informacji o zaufaniu w czasie rzeczywistym. Można to dalej zaimprowizować, jeśli użytkownicy mają środki wizualizacji rozumowania poza zaufaniem do danego źródła. W tym kierunku narzędzia do wizualizacji argumentów mogą powodować argumenty o wyższej jakości, krytyczną dyskusję lub spójne argumenty. Biorąc pod uwagę fakt, że najbardziej krytyczne wyniki przeglądowe autorów wskazują w tym samym kierunku, autorzy uważają, że rozsądne jest założenie, że te narzędzia mają pozytywny wpływ na umiejętności argumentacji użytkowników, a tym samym mogą zwiększyć siłę perswazji systemu. Jednak wiele pozostaje do zrobienia, ponieważ do tej pory eksperymenty nie były w stanie dostarczyć znaczących dowodów na korzyści płynące z narzędzi do wizualizacji argumentów w systemach wsparcia użytkowników.

Istnieją również inne sposoby ustanowienia relacji zaufania, gdy informacje nie są wyraźnie podane przez użytkowników. Można skorzystać z kilku źródeł danych społecznościowych, takich jak znajomi online i sieci biznesowe (na przykład Facebook lub LinkedIn), komunikacja e-mailowa, systemy reputacji itp. Potencjalnie wszystkie te źródła danych społecznościowych można włączyć do ( trustenhanced) RS, ale jak dotąd nie przeprowadzono wielu badań w celu ustalenia, które z nich będą najbardziej przydatne  i czy źródła te dałyby podobne wyniki, jak podejścia oparte na rekomendacjach oparte na zaufaniu omówione w tym rozdziale. Arazy i inni zajmują się tym problemem i argumentują, że projekt takich rekomendacji społecznych powinien opierać się na teorii, a nie na dokonywaniu doraźnych wyborów projektowych, jak to często ma miejsce w obecnych algorytmach. Innym ostatnim kierunkiem badawczym o zupełnie innym charakterze jest badanie potencjału braku zaufania do RS opartych na zaufaniu. Podczas gdy w domenie modelowania zaufania podjęto tylko kilka prób wprowadzenia nieufności, w domenie rekomendującej jest to jeszcze mniej. Wynika to z kilku powodów, z których najważniejszym jest to, że dostępnych jest bardzo niewiele zbiorów danych zawierających informacje o nieufności i nie ma jeszcze ogólnego konsensusu co do tego, jak je propagować i wykorzystywać do celów rekomendacji, stąd większość prac woli połączyć te dwa elementy (zaufanie i nieufność). Badane są trzy strategie nieufności. Dwie pierwsze strategie opierają się na założeniu, że zaufanie można wykorzystać do wybrania podobnych użytkowników (sąsiadów) we współpracujących systemach filtrujących, podczas gdy druga strategia sugeruje przyjęcie nieufności jako filtru przy wyborze sąsiadów i wygląda również bardziej obiecująco. Jasne jest jednak, że wiele pozostaje do zrobienia w tej wyłaniającej się dziedzinie badań, zanim będzie można dojść do bardziej precyzyjnych wniosków.

 Wniosek

Przedstawiliśmy wprowadzenie do obszaru badawczego polegającego na modelowaniu zaufania i nieufności za pomocą argumentacji. Zilustrowaliśmy, w jaki sposób można włączyć to podejście do rozumowania agentów, aby poprawić wydajność klasycznych RS. Aplikacje rekomendujące, które utrzymują sieć zaufania wśród swoich użytkowników, mogą skorzystać na strategiach propagowania zaufania, które okazały się przynosić wartość dodatkową, podczas gdy w przypadkach, gdy nie jest możliwe natychmiastowe zebranie jawnych oświadczeń zaufania, wydają się metody, które są w stanie automatycznie obliczyć wartości zaufania. za najbardziej idealne rozwiązanie. Technologie argumentacji są obiecującymi narzędziami w miejscach, w których autonomiczni agenci mogą wspierać ludzi w podejmowaniu decyzji, a tym samym usprawniać automatyzację. Agenci mogą pomóc swoim użytkownikom w znalezieniu najbardziej opłacalnego wyboru (rekomendacji) ze wszystkich, aby podjąć odpowiednią decyzję. Zwłaszcza w systemie rekomendacji opartym na argumentacji argumenty wysuwane w celu przekonania się nawzajem do produktu nie są wynikiem odosobnionej analizy, ale całościowego spojrzenia na problem, z którym chcemy się zgodzić. W tej pracy użyliśmy argumentacji do obsługi zaufania i odwrotnie. Cecha wykorzystywania wpływu zaufania na argumentację zapewniła użyteczną wszechstronność problemu rozumowania podmiotów autonomicznych. Integracja ta umożliwiła użytkownikowi podejmowanie przemyślanych decyzji, które były oparte na wiarygodnych zaleceniach.

Nie udawaj Greka! Spotkanie z załogą

Każda trirema miała załogę około 200 osób – dużo ludzi na pokładzie małego statku. Zdecydowana większość załogi była na pokładzie, aby wprawić statek w ruch. Oto skład załogi:

* Wioślarze (170): W przeciwieństwie do Imperium Rzymskiego, ludzie, którzy wiosłowali na starożytnych greckich okrętach wojennych, nie byli niewolnikami. Byli dobrze wyszkolonymi obywatelami z niższych klas, którzy skończyli jako marynarze, ponieważ nie mogli pozwolić sobie na panoplia na żołnierzy. Wiosłowanie było ciężką, wyczerpującą pracą – nieustannym kopaniem wiosła, które miało od 4 do 5 metrów (15 stóp). Na triremie wioślarze ustawiono na trzech różnych poziomach: 62 wioślarzy górnych (tranity), 54 wioślarzy środkowych (zygoty) i 54 wioślarzy dolnych (talamity).

* Flecista (jeden): Ten flecista, przypominający sternika lub kapitana nowoczesnej łodzi wiosłowej, pomagał wioślarzom zachować czas.

* Marines (14): Osoby te były zazwyczaj mieszanką hoplitów i kilku łuczników (prawdopodobnie Scytów).

* Majtkowie (15): Ci żołnierze wykonywali podstawową pracę polegającą na utrzymywaniu funkcjonowania statku – dokonywaniu napraw i pracy na żaglach i sterze (sterowanie).

* Kapitan: Kapitan statku nazywał się trierarchą. Był odpowiedzialny za wszystkich na pokładzie i taktykę w bitwie. Przydzielał obowiązki różnym majtkom, z których wszyscy na zmianę pełnili nocną wachtę. Generalnie trierarcha brał odpowiedzialność za nawigację i wyznaczanie kursu, ponieważ uważano to za obowiązek dowodzenia.

Mając tych wszystkich ludzi na pokładzie, triremy nie były szczególnie przydatne do transportu żołnierzy lądowych. Większość wojen greckich była dość lokalna, więc większość żołnierzy maszerowała do bitwy, ale jeśli musieli przejść przez morze, podróżowali normalnymi statkami handlowymi, strzeżonymi przez triremy.

Zaufanie w Cyberspace : Najnowocześniejsze systemy rekomendacji i możliwe rozszerzenia

W ostatnich latach opracowano kilka modeli zaufania w ogóle i w kontekście MAS. Jednak modele te nie są przeznaczone do zaufania agentom opartym na argumentacji w RS. Ich sformułowania nie uwzględniają elementów, które wykorzystujemy w naszym podejściu do rekomendacji (zaakceptowane i odrzucone argumenty, satysfakcja i niezadowolenie z interakcji i rekomendacji). Ponadto modele te mają pewne ograniczenia dotyczące akceptacji przez użytkownika zebranych informacji od innych agentów i ich wiarygodności, które omówimy dalej. Wiele prac nad zaufaniem w informatyce koncentrowało się na radzeniu sobie z określonymi scenariuszami, w których zaufanie musi być budowane lub obsługiwane w jakiś sposób. Prowadzono badania nad rozwojem zaufania w handlu elektronicznym poprzez wykorzystanie systemów reputacji oraz badania dotyczące funkcjonowania takich systemów [18]. Innym problemem jest wiarygodność źródeł informacji w sieci, takich jak te dostarczane przez RS. Na przykład Dong i inni zbadali mechanizmy w celu określenia, którym źródłom należy ufać w obliczu wielu sprzecznych informacji. Bedi i Vashisth  rozszerzają tę koncepcję, aby ocenić osoby, które dostarczają informacji, patrząc na historię argumentów, które dostarczyli. Zaufanie jest szczególnie ważną kwestią z punktu widzenia autonomicznych agentów i systemów wieloagentowych. Ideą systemów wieloagentowych jest tworzenie agentów oprogramowania, które będą działać w interesie ich właścicieli, realizując życzenia właścicieli podczas interakcji z innymi podmiotami . W takich interakcjach agenci będą musieli zastanowić się, w jakim stopniu powinni ufać innym podmiotom, czy ufają tym podmiotom w wykonaniu jakiegoś zadania, czy też ufają tym podmiotom, że nie nadużywają kluczowych informacji. W rezultacie wiele pracy znajdujemy na temat zaufania w systemach opartych na agentach, a także w systemach RS . Podejście oparte na argumentacji może służyć do poprawy wydajnościzaufania. Pomimo uznanej zdolności argumentacji do wspierania rozumowania w warunkach niepewności , tylko Prade, Bedi i Vashisth  oraz Parsons i inni rozważali użycie argumentów do obliczania zaufania w lokalnym ustawieniu oceny zaufania. Prade proponuje podejście oparte na argumentacji do oceny zaufania, które jest dwubiegunowe (oddzielając argumenty za zaufaniem i za nieufnością) i jakościowe (ponieważ argumenty mogą wspierać różne stopnie zaufania / nieufności). Parsons i inni wyprowadzić logikę argumentacji, w której argumenty wspierają miary zaufania, na przykład miary jakościowe, takie jak „bardzo wiarygodne” lub „nieco niewiarygodne”. Zaproponowano rozmyty model zaufania oparty na wszystkich akceptowanych i nieakceptowanych argumentach generowanych przez agentów w RS. Agenci ci mogą spierać się o swoje przekonania, cele i plany w ramach systemu argumentacji. Jak pokazano w poprzednich sekcjach, jednym z głównych wkładów podejścia opisanego w tym rozdziale jest to, że pozwala nam zintegrować rekomendację i argumentację z zaufaniem, w ramach praktycznego rozumowania agenta. Taka integracja umożliwia agentowi podejmowanie wiarygodnych decyzji i wnioskowanie o nich na poziomie przekonań i celów za pomocą argumentacji. RS można postrzegać jako szczególny przykład systemów decyzyjnych zorientowanych na pomoc użytkownikom w rozwiązywaniu zadań za pośrednictwem komputera. W ciągu ostatnich kilku lat podjęto kilka prób integracji argumentacji z ogólnymi systemami podejmowania decyzji. Technologia agentów została również zintegrowana z tymi systemami w celu modelowania wielu zadań decyzyjnych wymagających rekomendacji i negocjacji, zwłaszcza że agenci ci są doskonałym narzędziem pomagającym użytkownikom lub umożliwiającym im działanie w imieniu użytkowników . Nasze podejście można zastosować w obu kierunkach. Oznacza to, że z jednej strony agent może działać w imieniu użytkownika, biorąc pod uwagę jego / jej preferencje, cele itp. . Agent w oparciu o zaproponowaną koncepcję będzie dostarczał, a także poprawiał rekomendacje w sposób autonomiczny poprzez uzasadnienie. Pomaga to w wykrywaniu, a następnie rozwiązywaniu ewentualnych konfliktów w preferencjach użytkownika i zaleceniach. Z drugiej strony, osobisty agent może pomóc użytkownikowi w procesie rekomendacji, wykorzystując informacje pozyskane w wyniku argumentacji. Oznacza to, że użytkownik korzystający z systemu rekomendacji może otrzymać pomoc osobistego agenta w podejmowaniu decyzji. Dalej, porównując naszą pracę przez model zaufania opracowany dla systemu opartego na agentach , zaproponowaliśmy model zaufania oparty na wszystkich akceptowanych i nieakceptowanych interakcjach generowanych przez agentów w systemie z uwzględnieniem akceptacji użytkownika. W takich interakcjach agenci będą również musieli zastanowić się, w jakim stopniu powinni ufać innym podmiotom, czy ufają tym podmiotom w wykonaniu jakiegoś zadania, czy też ufają tym podmiotom, że nie nadużywają kluczowych informacji. W ostatnich pracach przedstawiono podejście argumentacyjne do sporu o zaufanie, w którym argumentacja jest wykorzystywana do wspierania zadania decyzyjnego związanego z zaufaniem. W przeciwieństwie do naszego podejścia, autorzy używają argumentacji tylko dla zaufania, podczas gdy my również skupiamy się na używaniu rozmytego zaufania i argumentacji dla praktycznego rozumowania przez agenta na temat przekonań. Pomaga to w wyciągnięciu wniosków dla konkretnego użytkownika na podstawie dostępnych informacji.

Nie udawaj Greka! Tonąć lub pływać: Wojna na falach

Jak wyjaśniam a samym  początku, starożytna Grecja była bardzo rozległa, a ludzie żyli tak daleko od siebie, jak współczesna Hiszpania i Turcja uważane za Greków. W rezultacie wojny, które miały miejsce, nie zawsze toczyły się na lądzie, a Grecy opracowali dość skomplikowane metody wojny morskiej.

Wejście na pokład greckiej triremy

Standardowy grecki statek bojowy był znany jako trirema, co pochodzi od greckiego słowa trieres oznaczającego „potrójnie wyposażony” lub „trzy wiosła”. Potrójny opis pochodzi od trzech rzędów wioseł, których załoga używała do napędzania statku do przodu. Statki te miały 40 metrów długości i około 4 metrów szerokości – były długie, opływowe i zbudowane tak, aby podróżować tak szybko, jak to możliwe. Opierali się na sile wioseł, choć czasami wbudowali żagiel. Przed wyruszeniem do bitwy załoga opuściła żagiel i maszt. Budowa tego rodzaju statku była czasochłonna, ale opierała się na bardzo specyficznym modelu. Stępka (długa część środkowa) została zmontowana jako pierwsza, a następnie wszystkie dodatkowe poszycie przymocowane do niego i uszczelnione. Jak widać na rysunku , gotowy statek nie mógł siedzieć bardzo nisko na wodzie, ponieważ najniższe wiosła znajdowały się zaledwie kilka stóp nad wodą. Statki były szybkie, ale niezbyt wytrzymałe i nie byłyby przystosowane do przetrwania naprawdę trudnej pogody.

Zaufanie w Cyberspace : Ilustracja ze scenariusza rekomendacji książki

Jako przykład rozważmy rysunek który przedstawia dialog perswazyjny między agentem sprzedającym RS a agentem kupującym.

Obaj agenci mają własne podstawy wierzeń, opierając się na wartościach zaufania w różnych źródłach informacji, podobieństwie do innych agentów, informacjach przekazywanych przez innych agentów i ich własnych przekonaniach. Wartości zaufania mieszczą się w przedziale od 0 do 1. W tym przykładzie agent kupujący musi podjąć decyzję dotyczącą książki poleconej mu przez agenta sprzedającego RS. Na przykład nasz agent ds. Kupujących twierdzi, że kupujący może mieć następujący zbiór informacji:

Więc BBitrustbuyer  zawiera:

Również BBibelbuyer zawiera:

Buyer ma również informacje z powiązań newspaper: BBinewspaperbuyer ⊢ (bn1; ~ popular(a); 1)

Każdy argument może być następnie użyty z regułami wnioskowania o przekonaniach podanymi jako

Równania od 14.15 do 14.18 do konstruowania argumentów kupującego na temat tego, czy polecana książka jest popularna, czy nie. Korzystając z informacji z własnych baz i gazet, kupujący może określić:

BBíbuyer † (~ popular (a); {t1, bn1}; rules 1; t1)

gdzie:

rules1 = {Argtrust, Trust}

Pokazuje to, że po przekazaniu informacji z gazety o ~popular (a), jej dowód wymaga zastosowania Trust w celu ustalenia stopnia wiary w informacje gazety. Zatem wymagana jest aplikacja Trust w celu importu bn1 z gazety. Interpretujemy stopień zaufania do źródła informacji jako stopień przekonania, że ​​to, co mówi źródło, jest prawdą. Aby obliczyć stopnie zaufania, przyjmujemy operację ≈ zaufanie jako minimum.

Zatem t1 = 0,8 ≈ trust 1 = min {0,8, 1} = 0,8. Podobnie kupujący może również konstruować inne argumenty, jak pokazano na powyższym rysunku  (a), rysunku  (b) i rysunku.

Agent sprzedający RS ma również własne bazy przekonań zawierające niektóre z poniższych informacji, które są następnie wykorzystywane do konstruowania argumentów przy użyciu reguł.

Więc BBítrustseller

zawiera:

Poza tym BBíbelseller zawiera:

Selller ma również pewne informacje z połączeń z ankietą klientów:

BBícustomersurveyseller ⊢ (sc1; popular (a); 0,9)

Agent sprzedający używa tych argumentów (skonstruowanych na podstawie wcześniejszych informacji) podczas dialogu perswazyjnego, jak pokazano później. W rezultacie sprzedawca ujawnia kupującemu nowe informacje, takie jak „Autor (a) jest zdobywcą nagrody Bookera”, co pomaga w przekonaniu kupującego o dobrej popularności danej książki. W związku z tym kupujący akceptuje rekomendację danej książki jako dobrą.

Nie udawaj Greka! Życie dla zabijania: Spartanie

Jak zauważyłem już, ludność Sparty różniła się od reszty starożytnej Grecji – a nawet świata zachodniego – pod wieloma względami. Ich postawa była taka, że ​​wracałeś z bitwy ze swoją tarczą – lub na niej (jako mary pogrzebowe lub nosze). Spartanie nie wierzyli w półśrodki, a ich standardy dyscypliny wojskowej były absolutne. Szkolenie wojskowe dla spartańskich chłopców rozpoczęło się, gdy mieli zaledwie 7 lat. W tym wieku chłopcy opuścili dom i weszli do systemu edukacji. Ten kompleksowy program obejmujący umiejętności łowieckie, trening fizyczny, a także trening emocjonalny – ma na celu nauczanie odwagi. Jeden szczególnie brutalny element spartańskiej edukacji nazywał się „Gauntlet” i polegał na bieganiu chłopców i nieustannym chłostaniu przez starsze dzieci, aż upadli lub, w niektórych przypadkach, umarli. Ostatnie spartańskie ćwiczenie tzaining, zwane krypteia, polegało na wysłaniu młodych mężczyzn (prawdopodobnie w wieku 14 lat) na wieś samotnie bez jedzenia i wody i wymaganie od nich, by przez miesiąc żyli z głową. Czasami krypteia zawierała także zadanie zabicia helotów (więcej o tych ludziach w Rozdziale 4) znalezionych wędrujących po wsiach. Chociaż ci młodzi mężczyźni prawdopodobnie kradli jedzenie, aby przeżyć, kradzież była uważana za przestępstwo. Opowieść Plutarcha pokazuje, jak wiele wysiłku posunął się pewien młody chłopiec, aby ukryć skradzione mienie: Chłopcy bardzo dbają o swoją kradzież, jak pokazano w opowieści o tym, który ukradł lisiątko i ukrył je pod płaszczem, bo zniósł jego żołądek rozszarpany pazurami i zębami bestii i raczej umarł, niż został wykryty. Ich wyszkolenie i zdolność do znoszenia trudów sprawiły, że armia spartańska była bardziej przerażająca niż jakakolwiek inna w Grecji. Po ukończeniu szkolenia spartańscy mężczyźni weszli do armii, w której musieli służyć do 30. roku życia. Między 30 a 60 rokiem życia stali się częścią rezerwy wojskowej, do której można było wezwać w dowolnym momencie.

Zaufanie w Cyberspace : Jednolite zaufanie i argumentacja z rozumowaniem agentów

Jesteśmy teraz zainteresowani skończonym zestawem agentów A, tym, w jaki sposób agenci ufają sobie nawzajem i używają tej reprezentacji w logice. Jeśli Trusts (Agi, Agj), gdzie Agi, Agj ∈ A, to Agi ufa Agj. Nie jest to relacja symetryczna, więc niekoniecznie jest tak, że Trusts (Agi, Agj) ⇒ Trusts (Agj, Agi). W pracy nad zaufaniem zwykle rozważa się wnioskowanie o zaufaniu przy założeniu, że relacje zaufania są przechodnie. Proces wnioskowania jest tym, co nazywamy „bezpośrednią propagacją”. Innym rodzajem relacji zaufania jest zaufanie pośrednie. Ten typ zaufania można obliczyć przy użyciu wartości zaufania agenta zebranej od sąsiadów lub innych podobnych agentów. Naszym celem jest pokazanie wykorzystania logiki i argumentacji do propagowania wartości zaufania między agentami w RS. Innymi słowy, chcemy podejścia opartego na argumentacji, którego agent może użyć, aby określić, że ma powód, by ufać innemu agentowi, a następnie połączyć to zaufanie z inną posiadaną wiedzą, aby podejmować decyzje dotyczące zaleceń. W systemie każdy agent Agi ma BB, czyli jakiś zbiór informacji o świecie, który nazwiemy BBi i jest to wyrażone logicznie. BBi składa się z kilku następujących partycji:

Tutaj zaufanie BBitrust zawiera informacje o stopniu zaufania, jakim Agi darzy innych znanych mu agentów, BBibel to zbiór przekonań lub faktów (w postaci predykatów) Agi na temat świata (który, jak zakładamy, ma pewną miarę wiary ), BBi podobny zawiera miarę podobieństwa Agi do innych czynników (podobieństwo między dwoma agentami jest obliczane przez zastosowanie podobieństwa cosinusowego  do ich upodobań i antypatii dla preferencji), a pewne informacje BBij, że Agi jest świadczone przez każdego z sąsiadów Agj. Elementy BBi to trojaczki, jak opisano w pracy Parsonsa  Każdy element ma postać: (id_typu; dane; wartość). Pierwszy parametr type_id służy do odwoływania się do elementu określonego typu BBi, drugi parametr to formuła, a trzeci to ilościowa miara zaufania / przekonania / podobieństwa w zależności od tego, do którego podziału BBi element się odwołuje. . Wszystkie argumenty mają postać: (wniosek; podstawy; reguły; wartość). Wniosek wyprowadza się z podstaw za pomocą reguł wnioskowania, czyli reguł (jak określono poniżej), a wniosek wyprowadza się na podstawie stopnia mającego wartość.

Reguła Argtrust mówi, że jeśli jakiś agent Agi ma tryplet: (t1; trusts (x, y); 0,4) w swoim BBítrust, to może skonstruować argument dla trustów (x, y), gdzie podstawami są t1, stopień zaufania wynosi 0,4, co oznacza, że do jego wyprowadzenia użyto reguły Argtrust.

Podobnie reguła Argsimilar mówi, że jeśli jakiś agent Agi ma trójkę: (s1; sim (x, y); 0,9) w swoim BBisimilar i wtedy może skonstruować argument dla sim (x, y), w którym podstawy są podane przez zbiór G (połączy wszystkie fakty użyte do określenia podobieństwa), stopień podobieństwa wynosi 0,9 i który rejestruje, że reguła Argsimilar został użyty w jego wyprowadzeniu.

gdzie:

n = 1 do p

p oznacza liczbę agentów bezpośrednio znanych x (tj. sąsiadów x)

Licznik w powyższym wyrażeniu można powtórzyć co najwyżej p tyle razy, ponieważ p określa maksymalną liczbę agentów znanych x, którzy również znają z. Reguła Arggdt obejmuje bezpośrednie propagowanie przez grupę wartości zaufania dla z uzyskanych z grupy sąsiadów x. Mówi się, że jeśli możemy wykazać, że zaufanie (x, yn) zachowuje się na poziomie vn i możemy pokazać, że zaufanie (yn, z) ma stopień wn dla pewnego agenta yn, to możemy zawrzeć zaufanie (x, z) ze stopniem vnagg(trust) wn, a wniosek opiera się na połączeniu informacji, które wspierały przesłanki, i jest obliczany przy użyciu wszystkich reguł używanych przez obie przesłanki. Tutaj vnagg(trust)wn jest interpretowane jako agregacja różnych wartości zaufania (połączonych indywidualnie przez operację ≈trust) uzyskanych z różnych źródeł zaufanych przez agenta i. Dlatego rozszerzamy połączenie w następujący sposób:

Powodem, dla którego jesteśmy zainteresowani wykorzystaniem argumentacji do obsługi zaufania, jest to, że chcemy zapisać, w formie argumentu dla jakiejś propozycji, powody, dla których należy w to wierzyć. Ponieważ informacja o źródle pewnych danych i zaufanie, jakim agent darzy źródło, są istotne, należy je zapisać w argumencie. Jest to łatwiejsze do osiągnięcia, jeśli zakodujemy dane o tym, kto ufa komu w logice. Do tej pory wyjaśniliśmy, w jaki sposób agent Agi może wnioskować o wiarygodności innych agentów. Powodem tego jest to, że Agi może wykorzystać informacje o zaufaniu, aby zdecydować, jak wykorzystać informacje otrzymane od tych agentów. Rozważmy teraz następujący zestaw reguł wnioskowania o przekonaniach:

Wszystkie te informacje o zaufaniu, to znaczy reguły z równań, mogą być następnie użyte, razem z powyższymi regułami podanymi w dalszych równaniach, do skonstruowania argumentów, które łączą zaufanie i przekonania agentów. Reguła Argbelief wyodrębnia argument z pojedynczej informacji, podczas gdy reguły wprowadzające koniunkcję (IC) i modus ponens (MP) są typowymi naturalnymi regułami dedukcji. Zasady dotyczące IC i eliminacji implikacji lub MP są uzupełnione kombinacją stopni przekonań i gromadzeniem informacji składających się z danych i reguł dowodowych. Kluczową regułą jest reguła o nazwie Zaufanie. To mówi, że jeśli możliwe jest skonstruowanie argumentu dla α z jakiegoś BBij, wskazującego, że informacja pochodzi od Agj, a Agi ufa Agj i Agi podobnie do Agj, to Agi ma argument za α. Podstawy tego argumentu łączą wszystkie dane, które zostały wykorzystane z BBij, wszystkie informacje o podobieństwie użyte do ustalenia, że ​​Agi jest podobne do Agj oraz wszystkie informacje o zaufaniu użyte do ustalenia, że ​​Agi ufa Agj, oraz zestaw reguł w argumencie zapisz wszystkie wnioski potrzebne do zbudowania tego połączonego argumentu. Wreszcie, przekonanie, które Agi ma w argumentacji, jest wiarą w α, tak jak zostało wyprowadzone z BBij, w połączeniu z podobieństwem i zaufaniem Agi do Agj. W związku z tym zasada ta sankcjonuje wykorzystanie informacji od znajomych agenta, pod warunkiem że stopień wiary w tę informację jest modyfikowany przez podobieństwo agenta i zaufanie do niego. W związku z tym jeden agent może importować informacje od innego agenta tylko wtedy, gdy pierwszy agent może skonstruować argument zaufania, który określa, że ​​powinien ufać drugiemu (drugiemu) agentowi za pomocą reguły zaufania.

Nie udawaj Greka! „Nazywasz mnie tchórzem?”

Każdy żołnierz, który uciekł ze starożytnego greckiego pola bitwy, rzuciłby tarczę, by poruszać się szybciej. Greckim słowem na to było rhipsaspis, czyli „ten, który odrzuca swoją tarczę”. Nazywanie kogoś zrzutem tarczy było wielką zniewagą. Chociaż starożytne Ateny nie miały odpowiednika dla współczesnych praw o zniesławieniu lub oszczerstwie, możesz pozwać kogoś do sądu, gdyby nazwał cię rhipsaspisem.