Nie udawaj Greka! Tonąć lub pływać: Wojna na falach

Jak wyjaśniam a samym  początku, starożytna Grecja była bardzo rozległa, a ludzie żyli tak daleko od siebie, jak współczesna Hiszpania i Turcja uważane za Greków. W rezultacie wojny, które miały miejsce, nie zawsze toczyły się na lądzie, a Grecy opracowali dość skomplikowane metody wojny morskiej.

Wejście na pokład greckiej triremy

Standardowy grecki statek bojowy był znany jako trirema, co pochodzi od greckiego słowa trieres oznaczającego „potrójnie wyposażony” lub „trzy wiosła”. Potrójny opis pochodzi od trzech rzędów wioseł, których załoga używała do napędzania statku do przodu. Statki te miały 40 metrów długości i około 4 metrów szerokości – były długie, opływowe i zbudowane tak, aby podróżować tak szybko, jak to możliwe. Opierali się na sile wioseł, choć czasami wbudowali żagiel. Przed wyruszeniem do bitwy załoga opuściła żagiel i maszt. Budowa tego rodzaju statku była czasochłonna, ale opierała się na bardzo specyficznym modelu. Stępka (długa część środkowa) została zmontowana jako pierwsza, a następnie wszystkie dodatkowe poszycie przymocowane do niego i uszczelnione. Jak widać na rysunku , gotowy statek nie mógł siedzieć bardzo nisko na wodzie, ponieważ najniższe wiosła znajdowały się zaledwie kilka stóp nad wodą. Statki były szybkie, ale niezbyt wytrzymałe i nie byłyby przystosowane do przetrwania naprawdę trudnej pogody.

Zaufanie w Cyberspace : Ilustracja ze scenariusza rekomendacji książki

Jako przykład rozważmy rysunek który przedstawia dialog perswazyjny między agentem sprzedającym RS a agentem kupującym.

Obaj agenci mają własne podstawy wierzeń, opierając się na wartościach zaufania w różnych źródłach informacji, podobieństwie do innych agentów, informacjach przekazywanych przez innych agentów i ich własnych przekonaniach. Wartości zaufania mieszczą się w przedziale od 0 do 1. W tym przykładzie agent kupujący musi podjąć decyzję dotyczącą książki poleconej mu przez agenta sprzedającego RS. Na przykład nasz agent ds. Kupujących twierdzi, że kupujący może mieć następujący zbiór informacji:

Więc BBitrustbuyer  zawiera:

Również BBibelbuyer zawiera:

Buyer ma również informacje z powiązań newspaper: BBinewspaperbuyer ⊢ (bn1; ~ popular(a); 1)

Każdy argument może być następnie użyty z regułami wnioskowania o przekonaniach podanymi jako

Równania od 14.15 do 14.18 do konstruowania argumentów kupującego na temat tego, czy polecana książka jest popularna, czy nie. Korzystając z informacji z własnych baz i gazet, kupujący może określić:

BBíbuyer † (~ popular (a); {t1, bn1}; rules 1; t1)

gdzie:

rules1 = {Argtrust, Trust}

Pokazuje to, że po przekazaniu informacji z gazety o ~popular (a), jej dowód wymaga zastosowania Trust w celu ustalenia stopnia wiary w informacje gazety. Zatem wymagana jest aplikacja Trust w celu importu bn1 z gazety. Interpretujemy stopień zaufania do źródła informacji jako stopień przekonania, że ​​to, co mówi źródło, jest prawdą. Aby obliczyć stopnie zaufania, przyjmujemy operację ≈ zaufanie jako minimum.

Zatem t1 = 0,8 ≈ trust 1 = min {0,8, 1} = 0,8. Podobnie kupujący może również konstruować inne argumenty, jak pokazano na powyższym rysunku  (a), rysunku  (b) i rysunku.

Agent sprzedający RS ma również własne bazy przekonań zawierające niektóre z poniższych informacji, które są następnie wykorzystywane do konstruowania argumentów przy użyciu reguł.

Więc BBítrustseller

zawiera:

Poza tym BBíbelseller zawiera:

Selller ma również pewne informacje z połączeń z ankietą klientów:

BBícustomersurveyseller ⊢ (sc1; popular (a); 0,9)

Agent sprzedający używa tych argumentów (skonstruowanych na podstawie wcześniejszych informacji) podczas dialogu perswazyjnego, jak pokazano później. W rezultacie sprzedawca ujawnia kupującemu nowe informacje, takie jak „Autor (a) jest zdobywcą nagrody Bookera”, co pomaga w przekonaniu kupującego o dobrej popularności danej książki. W związku z tym kupujący akceptuje rekomendację danej książki jako dobrą.

Nie udawaj Greka! Życie dla zabijania: Spartanie

Jak zauważyłem już, ludność Sparty różniła się od reszty starożytnej Grecji – a nawet świata zachodniego – pod wieloma względami. Ich postawa była taka, że ​​wracałeś z bitwy ze swoją tarczą – lub na niej (jako mary pogrzebowe lub nosze). Spartanie nie wierzyli w półśrodki, a ich standardy dyscypliny wojskowej były absolutne. Szkolenie wojskowe dla spartańskich chłopców rozpoczęło się, gdy mieli zaledwie 7 lat. W tym wieku chłopcy opuścili dom i weszli do systemu edukacji. Ten kompleksowy program obejmujący umiejętności łowieckie, trening fizyczny, a także trening emocjonalny – ma na celu nauczanie odwagi. Jeden szczególnie brutalny element spartańskiej edukacji nazywał się „Gauntlet” i polegał na bieganiu chłopców i nieustannym chłostaniu przez starsze dzieci, aż upadli lub, w niektórych przypadkach, umarli. Ostatnie spartańskie ćwiczenie tzaining, zwane krypteia, polegało na wysłaniu młodych mężczyzn (prawdopodobnie w wieku 14 lat) na wieś samotnie bez jedzenia i wody i wymaganie od nich, by przez miesiąc żyli z głową. Czasami krypteia zawierała także zadanie zabicia helotów (więcej o tych ludziach w Rozdziale 4) znalezionych wędrujących po wsiach. Chociaż ci młodzi mężczyźni prawdopodobnie kradli jedzenie, aby przeżyć, kradzież była uważana za przestępstwo. Opowieść Plutarcha pokazuje, jak wiele wysiłku posunął się pewien młody chłopiec, aby ukryć skradzione mienie: Chłopcy bardzo dbają o swoją kradzież, jak pokazano w opowieści o tym, który ukradł lisiątko i ukrył je pod płaszczem, bo zniósł jego żołądek rozszarpany pazurami i zębami bestii i raczej umarł, niż został wykryty. Ich wyszkolenie i zdolność do znoszenia trudów sprawiły, że armia spartańska była bardziej przerażająca niż jakakolwiek inna w Grecji. Po ukończeniu szkolenia spartańscy mężczyźni weszli do armii, w której musieli służyć do 30. roku życia. Między 30 a 60 rokiem życia stali się częścią rezerwy wojskowej, do której można było wezwać w dowolnym momencie.

Zaufanie w Cyberspace : Jednolite zaufanie i argumentacja z rozumowaniem agentów

Jesteśmy teraz zainteresowani skończonym zestawem agentów A, tym, w jaki sposób agenci ufają sobie nawzajem i używają tej reprezentacji w logice. Jeśli Trusts (Agi, Agj), gdzie Agi, Agj ∈ A, to Agi ufa Agj. Nie jest to relacja symetryczna, więc niekoniecznie jest tak, że Trusts (Agi, Agj) ⇒ Trusts (Agj, Agi). W pracy nad zaufaniem zwykle rozważa się wnioskowanie o zaufaniu przy założeniu, że relacje zaufania są przechodnie. Proces wnioskowania jest tym, co nazywamy „bezpośrednią propagacją”. Innym rodzajem relacji zaufania jest zaufanie pośrednie. Ten typ zaufania można obliczyć przy użyciu wartości zaufania agenta zebranej od sąsiadów lub innych podobnych agentów. Naszym celem jest pokazanie wykorzystania logiki i argumentacji do propagowania wartości zaufania między agentami w RS. Innymi słowy, chcemy podejścia opartego na argumentacji, którego agent może użyć, aby określić, że ma powód, by ufać innemu agentowi, a następnie połączyć to zaufanie z inną posiadaną wiedzą, aby podejmować decyzje dotyczące zaleceń. W systemie każdy agent Agi ma BB, czyli jakiś zbiór informacji o świecie, który nazwiemy BBi i jest to wyrażone logicznie. BBi składa się z kilku następujących partycji:

Tutaj zaufanie BBitrust zawiera informacje o stopniu zaufania, jakim Agi darzy innych znanych mu agentów, BBibel to zbiór przekonań lub faktów (w postaci predykatów) Agi na temat świata (który, jak zakładamy, ma pewną miarę wiary ), BBi podobny zawiera miarę podobieństwa Agi do innych czynników (podobieństwo między dwoma agentami jest obliczane przez zastosowanie podobieństwa cosinusowego  do ich upodobań i antypatii dla preferencji), a pewne informacje BBij, że Agi jest świadczone przez każdego z sąsiadów Agj. Elementy BBi to trojaczki, jak opisano w pracy Parsonsa  Każdy element ma postać: (id_typu; dane; wartość). Pierwszy parametr type_id służy do odwoływania się do elementu określonego typu BBi, drugi parametr to formuła, a trzeci to ilościowa miara zaufania / przekonania / podobieństwa w zależności od tego, do którego podziału BBi element się odwołuje. . Wszystkie argumenty mają postać: (wniosek; podstawy; reguły; wartość). Wniosek wyprowadza się z podstaw za pomocą reguł wnioskowania, czyli reguł (jak określono poniżej), a wniosek wyprowadza się na podstawie stopnia mającego wartość.

Reguła Argtrust mówi, że jeśli jakiś agent Agi ma tryplet: (t1; trusts (x, y); 0,4) w swoim BBítrust, to może skonstruować argument dla trustów (x, y), gdzie podstawami są t1, stopień zaufania wynosi 0,4, co oznacza, że do jego wyprowadzenia użyto reguły Argtrust.

Podobnie reguła Argsimilar mówi, że jeśli jakiś agent Agi ma trójkę: (s1; sim (x, y); 0,9) w swoim BBisimilar i wtedy może skonstruować argument dla sim (x, y), w którym podstawy są podane przez zbiór G (połączy wszystkie fakty użyte do określenia podobieństwa), stopień podobieństwa wynosi 0,9 i który rejestruje, że reguła Argsimilar został użyty w jego wyprowadzeniu.

gdzie:

n = 1 do p

p oznacza liczbę agentów bezpośrednio znanych x (tj. sąsiadów x)

Licznik w powyższym wyrażeniu można powtórzyć co najwyżej p tyle razy, ponieważ p określa maksymalną liczbę agentów znanych x, którzy również znają z. Reguła Arggdt obejmuje bezpośrednie propagowanie przez grupę wartości zaufania dla z uzyskanych z grupy sąsiadów x. Mówi się, że jeśli możemy wykazać, że zaufanie (x, yn) zachowuje się na poziomie vn i możemy pokazać, że zaufanie (yn, z) ma stopień wn dla pewnego agenta yn, to możemy zawrzeć zaufanie (x, z) ze stopniem vnagg(trust) wn, a wniosek opiera się na połączeniu informacji, które wspierały przesłanki, i jest obliczany przy użyciu wszystkich reguł używanych przez obie przesłanki. Tutaj vnagg(trust)wn jest interpretowane jako agregacja różnych wartości zaufania (połączonych indywidualnie przez operację ≈trust) uzyskanych z różnych źródeł zaufanych przez agenta i. Dlatego rozszerzamy połączenie w następujący sposób:

Powodem, dla którego jesteśmy zainteresowani wykorzystaniem argumentacji do obsługi zaufania, jest to, że chcemy zapisać, w formie argumentu dla jakiejś propozycji, powody, dla których należy w to wierzyć. Ponieważ informacja o źródle pewnych danych i zaufanie, jakim agent darzy źródło, są istotne, należy je zapisać w argumencie. Jest to łatwiejsze do osiągnięcia, jeśli zakodujemy dane o tym, kto ufa komu w logice. Do tej pory wyjaśniliśmy, w jaki sposób agent Agi może wnioskować o wiarygodności innych agentów. Powodem tego jest to, że Agi może wykorzystać informacje o zaufaniu, aby zdecydować, jak wykorzystać informacje otrzymane od tych agentów. Rozważmy teraz następujący zestaw reguł wnioskowania o przekonaniach:

Wszystkie te informacje o zaufaniu, to znaczy reguły z równań, mogą być następnie użyte, razem z powyższymi regułami podanymi w dalszych równaniach, do skonstruowania argumentów, które łączą zaufanie i przekonania agentów. Reguła Argbelief wyodrębnia argument z pojedynczej informacji, podczas gdy reguły wprowadzające koniunkcję (IC) i modus ponens (MP) są typowymi naturalnymi regułami dedukcji. Zasady dotyczące IC i eliminacji implikacji lub MP są uzupełnione kombinacją stopni przekonań i gromadzeniem informacji składających się z danych i reguł dowodowych. Kluczową regułą jest reguła o nazwie Zaufanie. To mówi, że jeśli możliwe jest skonstruowanie argumentu dla α z jakiegoś BBij, wskazującego, że informacja pochodzi od Agj, a Agi ufa Agj i Agi podobnie do Agj, to Agi ma argument za α. Podstawy tego argumentu łączą wszystkie dane, które zostały wykorzystane z BBij, wszystkie informacje o podobieństwie użyte do ustalenia, że ​​Agi jest podobne do Agj oraz wszystkie informacje o zaufaniu użyte do ustalenia, że ​​Agi ufa Agj, oraz zestaw reguł w argumencie zapisz wszystkie wnioski potrzebne do zbudowania tego połączonego argumentu. Wreszcie, przekonanie, które Agi ma w argumentacji, jest wiarą w α, tak jak zostało wyprowadzone z BBij, w połączeniu z podobieństwem i zaufaniem Agi do Agj. W związku z tym zasada ta sankcjonuje wykorzystanie informacji od znajomych agenta, pod warunkiem że stopień wiary w tę informację jest modyfikowany przez podobieństwo agenta i zaufanie do niego. W związku z tym jeden agent może importować informacje od innego agenta tylko wtedy, gdy pierwszy agent może skonstruować argument zaufania, który określa, że ​​powinien ufać drugiemu (drugiemu) agentowi za pomocą reguły zaufania.

Nie udawaj Greka! „Nazywasz mnie tchórzem?”

Każdy żołnierz, który uciekł ze starożytnego greckiego pola bitwy, rzuciłby tarczę, by poruszać się szybciej. Greckim słowem na to było rhipsaspis, czyli „ten, który odrzuca swoją tarczę”. Nazywanie kogoś zrzutem tarczy było wielką zniewagą. Chociaż starożytne Ateny nie miały odpowiednika dla współczesnych praw o zniesławieniu lub oszczerstwie, możesz pozwać kogoś do sądu, gdyby nazwał cię rhipsaspisem.

Zaufanie w Cyberspace : Modelowanie zaufania dla systemu rekomendacji opartego na argumentach

Systemy zaufania to systemy ratingowe, w których każda osoba jest proszona o wyrażenie opinii po zakończeniu każdej interakcji w formie ocen (może być ona dorozumiana lub jawna). W naszej pracy wartości zaufania i nieufności są wywnioskowane z bazy danych ratingów RS, a następnie wartości te są wykorzystywane w celu zwiększenia dokładności procesu rekomendacji. Te interakcje składają się z argumentów i zaleceń generowanych przez agentów. Argumenty są ważne dla wyjaśnienia wszelkiego rodzaju interakcji między agentami. Poprawia to jakość i użyteczność rekomendacji iteracyjnie w kilku cyklach [6]. Podczas argumentacji agenci mogą wcześniej uzgodnić lub nie zgodzić się w pewnych kwestiach; na koniec użytkownik akceptuje lub odrzuca rekomendację. Uważamy, że cokolwiek może być ostatecznym wynikiem procesu rekomendacji, zawsze odpowiadają za to różne argumenty (za lub przeciw). Dzieje się tak, ponieważ te argumenty stanowią podstawę generowanych rekomendacji. Dlatego ważne jest, aby oprócz zaleceń określić odpowiedzi agentów na takie argumenty. Zgoda i akceptacja określiłyby dokładniejszą wartość zaufania dla agentów w systemie, podczas gdy brak zgody i odrzucenie mogą jednocześnie określić nieufność w systemie. Również z perspektywy badawczej powszechnie uznaje się, że nieufność odgrywa ważną rolę, ale w tej dziedzinie pozostaje jeszcze wiele do zrobienia. Jak wspomniano powyżej, obliczyliśmy wartości zaufania i nieufności oddzielnie na podstawie interakcji agentów w systemie. Ale jak omówiono  wszystkie podejścia , które traktują zaufanie i nieufność, jak dotąd, nie były w stanie osiągnąć konsensusu co do sposobu szerzenia nieufności. Różne operatory dają różne wyniki w zależności od interpretacji, dlatego bardzo ważny jest wybór odpowiedniego schematu rozmnażania dla danego zastosowania. W naszym przypadku, ponieważ proponujemy uogólniony model zaufania – nieufności dla każdego wniosku o rekomendację, w którym propagujemy i agregujemy wszystkie wartości zaufania – nieufności za pomocą rozumowania to ostateczna sugerowana wartość zaufania poprzez odjęcie ważonej rozmytej wartości zaufania od ważonej rozmytej wartości zaufania. Guha i inni poparli również łączenie wartości zaufania i nieufności ze względu na podobne problemy związane z propagowaniem nieufności, ale nie rozważali rozmytych środków w celu dalszej poprawy dokładności. Bardziej formalnie, niech A = {a1, a2,…,aM} to zbiór wszystkich agentów (zarówno użytkowników, jak i agentów rekomendujących), gdzie M to liczba agentów w systemie. Zakładamy, że każdy klient użytkownika oceni agenta rekomendującego po zakończeniu procesu rekomendacji. Interakcja i ∈ I, gdzie rxy(ik) jest oceną, którą agent x przyznał agentowi y za interakcję ik. Skala ocen lub ocena interakcji jest definiowana jako G = {−2, −1, 0, +1, +2}. Zbiór ocen, które agent x nadał agentowi y, to Sxy = {rxy(ik) | ik ∈ I} a cała przeszła historia agenta x to Hx = {Sxy | ∀ y(≠x) ∈ A}. Ocena agenta dla rekomendacji lub argumentu „ik” jest szacowana niejawnie na podstawie liczby dopasowań parametrów argumentu, które trafiają na listę preferencji agenta. Ocena może być również nadana bezpośrednio przez użytkownika na skali „G”, jak wspomniano powyżej. Biorąc pod uwagę, że A jest zbiorem agentów. Wiarygodność agenta definiujemy następująco: Trusts: A ¥ A ¥ F Æ [0,1]. Ta funkcja przypisuje każdemu agentowi rekomendującemu rozmytą miarę reprezentującą jego wiarygodność według innych programów użytkownika. Aby obliczyć wiarygodność agenta y (oznaczonego jako y), agent x (oznaczony jako x) wykorzystuje historię swoich interakcji (zarówno argumenty, jak i zalecenia) z y.

Tutaj Trustsxy oznacza ostateczną wiarygodność y zgodnie z punktem widzenia x. T_N_Argxy to łączna liczba argumentów przedstawionych przez y w stosunku do x, liczba utrzymywana przez trwałą bazę przekonań agenta w systemie. T_N_Rxy to całkowita liczba zaleceń wydanych przez y dla x, liczba utrzymywana przez trwałą bazę przekonań agenta w systemie. ÂArgOEIFM_agree (Argxy) jest sumą rozmytej miary stopnia zgodności x względem argumentów y, które są do przyjęcia dla x, otrzymanej z równania. ÂArgOEIFM_disagree(Argxy) jest sumą rozmytej miary stopnia niezgodności x argumentów y, które są nie do przyjęcia dla x, otrzymanej z równania. ÂROEIFM(Rxy)*vsatisfied jest sumą rozmytej miary stopnia spełnienia x względem zaleceń y uzyskanych z równań. Stąd te zalecenia są akceptowalne dla x. ÂROEIFM(Rxy)*vunsatisfied jest sumą rozmytej miary stopnia niezadowolenia x z zaleceń y uzyskanych z równania .Dlatego te zalecenia są nie do przyjęcia dla x. Tutaj vsatisfied i vunsatisfied to wartości (wagi) przypisane do akceptowalnych i niedopuszczalne argumenty rekomendacji. Teraz musimy znaleźć satysfakcję użytkownika (w jakim stopniu) i niezadowolenie (w jakim stopniu) z rekomendacji lub argumentu wygenerowanego przez agenta. Aby to zrobić, możemy zdefiniować dwa rozmyte podzbiory w ocenach każdego agenta, powiedzmy zadowolony i niezadowolony. Dzieje się tak, ponieważ zbiory rozmyte mogą jasno uchwycić koncepcję znalezienia zakresu (wartości członkostwa), w jakim agent jest zadowolony lub niezadowolony z interakcji. Zadowolone i niezadowolone rozmyte podzbiory dla x są zdefiniowane w następujący sposób:

gdzie:

satx(ik) i unsatx(ik) dają nam wyraźne wartości członkostwa dla ocen x po interakcji ik (argumenty i rekomendacje) w rozmytych podzbiorach, odpowiednio, spełnione (x) i niezadowolone (x)

Następnie określamy Rozmyte wartości członkostwa typu 2 dla ocen x w interakcji ik  przy użyciu dwóch powyższych  równań .

Teraz podajemy prostą trójkątną funkcję przynależności dla spełnionych (x) i niezadowolonych (x) rozmytych podzbiorów typu 1, które są zdefiniowane za pomocą następujących popularnych równań

gdzie :

gmin i gmax to minimalne i maksymalne oceny dla danego systemu, przy czym G = {gmin,. . ., 0,. . ., gmax} Aby rozmyć wartość funkcji przynależności uzyskaną z równania 14.4, używamy zestawów rozmytych przedziału typu 2 do uogólnienia zbiorów rozmytych typu 1. W ten sposób można poradzić sobie z większą niepewnością. Stąd teraz satx(ik)Œ{satx(ik)2, √satx(ik)} for zamiast być równą wartości liczbowej rxyik) – gmin gmax – gmin. To daje nam teraz elastyczność w definiowaniu poziomu satysfakcji użytkownika (zasięgu) przy użyciu rozmytych zbiorów typu 2 interwału. Uważamy, że różni użytkownicy (np. Stary, częsty i nowy użytkownik) mogą mieć różne poziomy zadowolenia z danego wyjścia. Częsty użytkownik oczekuje od systemu bardziej trafnych rekomendacji niż nowy użytkownik lub użytkownik, który rzadziej korzysta z systemu. Powiedzmy, że mamy trzy grupy poziomu satysfakcji (mniej zadowolony, umiarkowanie zadowolony i bardzo zadowolony). Tak więc zakres poziomu satysfakcji może się różnić w zależności od nowego użytkownika i częstego użytkownika, biorąc pod uwagę ten sam zestaw zaleceń. Ponadto stopień zadowolenia użytkownika (biorąc pod uwagę doświadczenie w użytkowaniu systemu) można określić jako:

gdzie:

α i β są wagami przypisanymi do dolnej i górnej granicy przedziału rozmytego zestawu przynależności typu 2 {satx(ik)2, √satx(ik)} dla satx(ik), odpowiednio Tutaj α i β przyjmą wartości w trakcie wykonywania, zgodnie z typem użytkownika zalogowanego do systemu i potrzebującego zaleceń. Korzystając z Równania otrzymujemy

Unsatx(ik) = 1 – satx(ik).

Zbiory i systemy rozmyte typu 2 uogólniają zbiory i systemy rozmyte typu 1, dzięki czemu można obsłużyć większą niepewność. Funkcja przynależności zbioru rozmytego typu 1 nie jest związana z żadną niepewnością. Zbiór rozmyty typu 2 pozwala nam włączyć niepewność dotyczącą funkcji przynależności do teorii zbiorów rozmytych i jest sposobem na odniesienie się do powyższej krytyki zbiorów rozmytych typu 1. A jeśli nie ma niepewności, to zbiór rozmyty typu 2 redukuje się do zbioru rozmytego typu 1, co jest analogiczne do redukcji prawdopodobieństwa do determinizmu, gdy znika nieprzewidywalność. Na przykład w studium przypadku reprezentujemy przynależność do preferencji kosztowej produktu przez rozmyty zbiór przedziałów typu 2, to znaczy przynależność do kosztu dla każdego produktu w każdej kategorii, to znaczy niski, średni lub wysoki jest interwałem, a nie wartością wyraźną. W ten sposób można obsłużyć większą niepewność przy użyciu zbiorów rozmytych typu 2 niż przy użyciu zbiorów rozmytych typu 1. Poziom satysfakcji użytkownika można również zdefiniować za pomocą zbiorów rozmytych typu 2. Jak wyjaśniono powyżej, różni użytkownicy (dawni często i nowi użytkownicy) mogą mieć różny poziom zadowolenia z wygenerowanych zaleceń. Częsty użytkownik oczekuje od systemu bardziej trafnych rekomendacji niż nowy użytkownik lub użytkownik, który rzadziej korzysta z systemu. Dlatego zakres poziomów satysfakcji będzie różny dla nowych użytkowników i dla częstych użytkowników. Następnie, dla argumentacji między agentami w RS, definiujemy dwie kombinacje podzbiorów rozmytych zadowolonych i niezadowolonych, tj. Zadowolony – zadowolony zapisany jako SS (x, y) i niezadowolony – zadowolony zapisany jako US (x, y). Zakładamy, że x reprezentuje użytkownika, podczas gdy y reprezentuje osobę polecającą. Dlatego w przypadku rozmytego systemu zaufania ratingowego wartości zgodności i braku zgody w przypadku argumentu między dowolnymi dwoma agentami x i y są podane przez

Literatura dotycząca zbiorów rozmytych opisuje wiele alternatyw dla sumowania i przecinania zbiorów wyrazistych. Popularny to minimum dla skrzyżowania i maksimum dla związku. Alternatywa min – max i definicja liczności zbioru rozmytego dają następujące wyniki

Wszystkie te argumenty i zalecenia dotyczą konkretnej domeny. Podstawową ideą jest to, że poziom zaufania i nieufności agenta można oszacować na podstawie tego, ile informacji uzyskanych od niego zostało odpowiednio zaakceptowanych lub odrzuconych jako wiara w przeszłość.

Nie udawaj Greka! Niech rozpocznie się bitwa!

Taktyka hoplitów była bardzo zdyscyplinowana, sprowadzając rolę jednostki do roli trybika w dobrze naoliwionej maszynie. Było to całkowite odejście od superbohaterów w Iliadzie. Po rozpoczęciu bitwy zadaniem każdego żołnierza hoplitów było natarcie na człowieka z przodu. Jeśli mężczyzna przed tobą upadł, ruszałeś do przodu i zająłeś jego miejsce w kolejce. Żyjący w VII wieku p.n.e. spartański pisarz Tyrtajos pisał o walce w ramach hoplitów: „Każdy powinien zbliżyć się do swojego człowieka ze swoją wielką włócznią lub mieczem, ranić i zabić wroga”. Stojąc noga w nogę, opierając tarczę o tarczę, grzebień przy grzebieniu i hełm przy hełmie, gdy zbliżał się świt, niech walczy ze swoim człowiekiem mieczem lub wielką włócznią. Kluczowym elementem bitwy było pchanie do przodu i w pewnym momencie zmuszenie linii wroga do przerwania. Po tym, jak to się stało, walka zwykle się kończyła. Doniesienia o bitwach starożytnych Greków zwykle wskazują na ogromne straty dla przegranych i tylko bardzo niewielkie dla zwycięzców. Chociaż liczby są prawdopodobnie zawyżone, brak równowagi między zwycięzcą a przegranym ma sens: po zerwaniu linii przegranej zwycięska armia ścigała swoich ludzi, gdy żołnierze uciekali z pola, co spowodowało większość zabójstw, które miały miejsce. W tym momencie sprowadzono również kawalerię i lekkie oddziały, aby ścigać wroga. Wyobrażenie sobie okropnego strachu przed walką w takiej bitwie może być trudne, biorąc pod uwagę współczesną taktykę wojenną. Na starożytnym greckim polu bitwy nie miałeś kryjówki; byłeś twarzą w twarz ze swoim wrogiem. Jeśli najpierw nie zabiłeś lub nie zraniłeś mężczyzny naprzeciwko ciebie, zabiłby cię lub zranił. Wszędzie wokół ciebie inni mężczyźni umierali z powodu najstraszniejszych obrażeń. Nie miałbyś czasu, aby go uratować lub zaoferować pomoc.

Zaufanie w Cyberspace : Podstawowe pojęcia: zaufanie i argumentacja

Zaufanie to mechanizm zarządzania niepewnością dotyczącą autonomicznych podmiotów i informacji, z którymi mają do czynienia. Formalnie zaufanie definiuje się jako subiektywne oczekiwanie partnera dotyczące przyszłego zachowania innej osoby w oparciu o historię ich spotkań. Ponieważ systemy komputerowe stają się coraz bardziej rozproszone, a kontrola w tych systemach stała się bardziej zdecentralizowana, zaufanie staje się coraz ważniejszym pojęciem w informatyce. Wiele prac nad zaufaniem w informatyce koncentrowało się na radzeniu sobie z określonymi scenariuszami, w których zaufanie musi być budowane lub obsługiwane w jakiś sposób. Prowadzono badania nad rozwojem zaufania w handlu elektronicznym poprzez wykorzystanie systemów reputacji oraz badania dotyczące funkcjonowania takich systemów ]. Innym problemem jest wiarygodność źródeł informacji w sieci, takich jak te dostarczane przez RS . Bedi i Vashisth oceniają osoby, które dostarczają informacji, przyglądając się historii argumentów, które przedstawili. Zaufanie jest również ważną kwestią z punktu widzenia autonomicznych agentów i systemów wieloagentowych. W rezultacie wiele pracy znajdujemy na temat zaufania w systemach opartych na agentach , a także w systemach RS . Podejście oparte na argumentacji może służyć do poprawy wydajności mechanizmów zaufania. Może się to zdarzyć, gdy zaufanie jest obliczane przez agenta w izolacji (w oparciu o poprzednie interakcje z celem) lub gdy agenci mogą wymieniać i udostępniać informacje o wiarygodności potencjalnych celów (lub między sobą). Zaufanie obliczeniowe to problem rozumowania w warunkach niepewności, wymagający przewidywania i przewidywania przez agenta (oceniającego) przyszłego zachowania innego agenta (celu). Pomimo uznanej zdolności argumentacji do wspierania rozumowania w warunkach niepewności , tylko Prade , Bedi i Vashisth  oraz Parsons  rozważali użycie argumentów do obliczania zaufania w lokalnym ustawieniu oceny zaufania. Zaproponowano rozmyty model zaufania oparty na wszystkich akceptowanych i nieakceptowanych argumentach generowanych przez agentów w RS. Agenci ci mogą spierać się o swoje przekonania, cele i plany w ramach systemu argumentacji. System argumentacji to po prostu zbiór argumentów i relacja binarna reprezentująca relację ataku między argumentami. Poniższe definicje opisują formalnie argumentację i relacje ataku w ich najbardziej podstawowej formie. Tutaj BB wskazuje na prawdopodobnie niespójną podstawę przekonań. Niech ⊢ oznacza wnioskowanie, a ≡ logiczną równoważność. Symbol „⊕” określa ogólną operację, której można użyć do połączenia wartości zaufania, przekonań lub podobieństwa.

Definicja 1 (argument). Argumentem jest para (H, h), gdzie h jest formułą języka logicznego, a H podzbiorem BB takim, że (1) H jest spójne, (2) H ⊢ h, a (3) H jest minimalne, więc żaden podzbiór H spełniający zarówno (1), jak i (2) nie istnieje. H nazywa się poparciem argumentu i h jego wnioskiem.

Definicja 2 (stosunek ataku). Niech (H1, h1), (H2, h2) będą dwoma argumentami. (H1, h1) atakuje (H2, h2) przez obalenie lub podcięcie. (H1, h1) podbicia (H2, h2) iff h1 ≡ ~ h2. (H1, h1) podcięcia (H2, h2) jeśli h1 ≡ ~ h2 ′ gdzie h2 ′ ∈ H2.

Przed złożeniem sugestii h, prelegent musi użyć swojego systemu argumentacji, aby zbudować argument (H, h). Chodzi o to, aby móc przekonać agenta adresata o h, jeśli zdecyduje się odrzucić sugestię. Z drugiej strony agent-adresat musi skorzystać z własnego systemu argumentacji, aby wybrać odpowiedź, której udzieli. Aby móc komunikować się i dyskutować, agenci używają zestawu reguł logicznych opartych na faktach przechowywanych w ich BB.

Nie udawaj Greka! Zdobywanie taktyki: formacje hoplitów

Filmy takie jak Troja (2003) i 300 (2006) mogą sprawiać wrażenie, jakby w greckiej bitwie wszyscy rzucali się na siebie w trakcie ogólnego ataku. To było dalekie od sprawy. Greckie bitwy toczyły się według sztywnych linii taktycznych, co oznaczało, że każdy człowiek dokładnie wiedział, na czym polega jego praca. Hoplici dominowali w wojnie starożytnej Grecji kosztem wszystkich innych rodzajów walki, ponieważ byli tak skuteczni. Siła hoplitów spadła do tarczy. Tarcza hoplon była lżejsza niż większe tarcze, których żołnierze używali wcześniej. W rezultacie mężczyźni zaczęli walczyć bliżej siebie w bitwie i rozwinęła się falanga hoplitów – potężna formacja bojowa, w której hoplici ustawili się w szeregach,

liczących prawdopodobnie ośmiu ludzi. W falangi oddziały wyruszyły w otwartym szyku, maszerując lub biegając obok siebie z ukrytą bronią, aż nadszedł czas bitwy. Kiedy rozpoczęła się bitwa, te otwarte formacje zamknęły się, tak że każdy człowiek zajmował tylko około 1 metra przestrzeni. Zbliżanie się do siebie oznaczało, że prawa strona każdego mężczyzny była w dużej mierze osłonięta tarczą mężczyzny po jego prawej stronie – i tak dalej na całej linii. Zacieśnianie formacji powodowało efekt ściany tarcz, na którą hoplici następnie wbijali włócznie nad lub pomiędzy. Rysunek  pokazuje, jak blisko siebie znajdowali się mężczyźni i jak zakryli mężczyznę po swojej lewej stronie.

Zaufanie w Cyberspace : Tradycyjne technologie systemów rekomendujących i wyzwania

RS stały się ważnym obszarem badawczym ze względu na nadmiar informacji w Internecie i wzrost handlu elektronicznego online. Wiele pracy wykonano zarówno w przemyśle, jak i na uczelniach nad opracowaniem nowego podejścia do RS w ciągu ostatniej dekady. Zainteresowanie tym obszarem nadal pozostaje duże, bo tak jest problematyczny obszar badawczy ze względu na mnogość praktycznych zastosowań, które pomagają użytkownikom radzić sobie z nadmiarem informacji i zapewniają im spersonalizowane rekomendacje, treści i usługi. Przykłady takich aplikacji obejmują polecanie książek, płyt CD i innych produktów w Amazon.com, filmów MovieLens itp. Ponadto niektórzy dostawcy włączyli również możliwości rekomendacji do swoich serwerów handlowych. W swoim najbardziej powszechnym sformułowaniu problem rekomendacji sprowadza się do problemu szacowania ocen dla pozycji, których użytkownik nie widział. Intuicyjnie, to oszacowanie jest zwykle oparte na ocenach nadanych przez tego użytkownika innym elementom. Gdy będziemy mogli oszacować oceny dla pozycji, które jeszcze nie zostały ocenione, możemy polecić użytkownikowi przedmiot (y) z najwyższą oceną (ocenami). RS są zwykle klasyfikowane zgodnie z ich podejściem do szacowania ratingów. Ponadto RS zwykle dzieli się na następujące kategorie, w oparciu o sposób sporządzania zaleceń:

  • Zalecenia oparte na treści: Użytkownikowi zaleca się przedmioty podobne do tych, które użytkownik preferował w przeszłości.
  • Zalecenia dotyczące współpracy: Użytkownikowi zaleca się przedmioty, które w przeszłości lubiły osoby o podobnych gustach i preferencjach.
  • Podejścia hybrydowe: Metody te łączą metody współpracy i metody oparte na treści.

Oprócz RS, które przewidują bezwzględne wartości ocen, jakie poszczególni użytkownicy nadaliby jeszcze niewidocznym pozycjom (jak omówiono powyżej), wykonano prace nad filtrowaniem opartym na preferencjach, czyli przewidywaniem względnych preferencji użytkowników . Na przykład, w aplikacji z rekomendacjami filmowymi techniki filtrowania oparte na preferencjach skupiałyby się na przewidywaniu prawidłowej względnej kolejności filmów, a nie na ich indywidualnych ocenach. Jednak pomimo wszystkich tych postępów, obecna generacja RS nadal wymaga dalszych ulepszeń, aby metody rekomendacji były bardziej skuteczne, przekonujące i nadające się do zastosowania w jeszcze szerszym zakresie rzeczywistych aplikacji, które uwzględniają również kwestię zaufania . Ulepszenia te obejmują lepsze metody przedstawiania zachowań użytkowników i informacji o pozycjach, które mają być rekomendowane, bardziej zaawansowane metody modelowania rekomendacji, włączenie różnych podstawowych informacji do procesu rekomendacji, wykorzystanie ocen opartych na wielu kryteriach oraz opracowanie mniej inwazyjnych i bardziej wiarygodnych metod rekomendacji. . W tym rozdziale opiszemy różne sposoby rozszerzenia możliwości RS. Rozwiązaniem niektórych problemów badawczych, z jakimi borykają się współczesne RS, może być zintegrowanie istniejących technologii wsparcia użytkowników z odpowiednimi mechanizmami wnioskowania opartymi na zaufaniu do rozumowania jakościowego. Korzystanie z zaufania i argumentacji pozwala różnym agentom rozwiązywać konflikty opinii i przedstawiać godne zaufania zalecenia wraz z uzasadnionymi uzasadnieniami. Użytkownik może następnie dalej zbadać te argumenty i zaakceptować zalecenia tylko wtedy, gdy narzędzie rekomendacji może przedstawić wiarygodny przypadek.