Zaufanie to mechanizm zarządzania niepewnością dotyczącą autonomicznych podmiotów i informacji, z którymi mają do czynienia. Formalnie zaufanie definiuje się jako subiektywne oczekiwanie partnera dotyczące przyszłego zachowania innej osoby w oparciu o historię ich spotkań. Ponieważ systemy komputerowe stają się coraz bardziej rozproszone, a kontrola w tych systemach stała się bardziej zdecentralizowana, zaufanie staje się coraz ważniejszym pojęciem w informatyce. Wiele prac nad zaufaniem w informatyce koncentrowało się na radzeniu sobie z określonymi scenariuszami, w których zaufanie musi być budowane lub obsługiwane w jakiś sposób. Prowadzono badania nad rozwojem zaufania w handlu elektronicznym poprzez wykorzystanie systemów reputacji oraz badania dotyczące funkcjonowania takich systemów ]. Innym problemem jest wiarygodność źródeł informacji w sieci, takich jak te dostarczane przez RS . Bedi i Vashisth oceniają osoby, które dostarczają informacji, przyglądając się historii argumentów, które przedstawili. Zaufanie jest również ważną kwestią z punktu widzenia autonomicznych agentów i systemów wieloagentowych. W rezultacie wiele pracy znajdujemy na temat zaufania w systemach opartych na agentach , a także w systemach RS . Podejście oparte na argumentacji może służyć do poprawy wydajności mechanizmów zaufania. Może się to zdarzyć, gdy zaufanie jest obliczane przez agenta w izolacji (w oparciu o poprzednie interakcje z celem) lub gdy agenci mogą wymieniać i udostępniać informacje o wiarygodności potencjalnych celów (lub między sobą). Zaufanie obliczeniowe to problem rozumowania w warunkach niepewności, wymagający przewidywania i przewidywania przez agenta (oceniającego) przyszłego zachowania innego agenta (celu). Pomimo uznanej zdolności argumentacji do wspierania rozumowania w warunkach niepewności , tylko Prade , Bedi i Vashisth oraz Parsons rozważali użycie argumentów do obliczania zaufania w lokalnym ustawieniu oceny zaufania. Zaproponowano rozmyty model zaufania oparty na wszystkich akceptowanych i nieakceptowanych argumentach generowanych przez agentów w RS. Agenci ci mogą spierać się o swoje przekonania, cele i plany w ramach systemu argumentacji. System argumentacji to po prostu zbiór argumentów i relacja binarna reprezentująca relację ataku między argumentami. Poniższe definicje opisują formalnie argumentację i relacje ataku w ich najbardziej podstawowej formie. Tutaj BB wskazuje na prawdopodobnie niespójną podstawę przekonań. Niech ⊢ oznacza wnioskowanie, a ≡ logiczną równoważność. Symbol „⊕” określa ogólną operację, której można użyć do połączenia wartości zaufania, przekonań lub podobieństwa.
Definicja 1 (argument). Argumentem jest para (H, h), gdzie h jest formułą języka logicznego, a H podzbiorem BB takim, że (1) H jest spójne, (2) H ⊢ h, a (3) H jest minimalne, więc żaden podzbiór H spełniający zarówno (1), jak i (2) nie istnieje. H nazywa się poparciem argumentu i h jego wnioskiem.
Definicja 2 (stosunek ataku). Niech (H1, h1), (H2, h2) będą dwoma argumentami. (H1, h1) atakuje (H2, h2) przez obalenie lub podcięcie. (H1, h1) podbicia (H2, h2) iff h1 ≡ ~ h2. (H1, h1) podcięcia (H2, h2) jeśli h1 ≡ ~ h2 ′ gdzie h2 ′ ∈ H2.
Przed złożeniem sugestii h, prelegent musi użyć swojego systemu argumentacji, aby zbudować argument (H, h). Chodzi o to, aby móc przekonać agenta adresata o h, jeśli zdecyduje się odrzucić sugestię. Z drugiej strony agent-adresat musi skorzystać z własnego systemu argumentacji, aby wybrać odpowiedź, której udzieli. Aby móc komunikować się i dyskutować, agenci używają zestawu reguł logicznych opartych na faktach przechowywanych w ich BB.