W ostatnich latach opracowano kilka modeli zaufania w ogóle i w kontekście MAS. Jednak modele te nie są przeznaczone do zaufania agentom opartym na argumentacji w RS. Ich sformułowania nie uwzględniają elementów, które wykorzystujemy w naszym podejściu do rekomendacji (zaakceptowane i odrzucone argumenty, satysfakcja i niezadowolenie z interakcji i rekomendacji). Ponadto modele te mają pewne ograniczenia dotyczące akceptacji przez użytkownika zebranych informacji od innych agentów i ich wiarygodności, które omówimy dalej. Wiele prac nad zaufaniem w informatyce koncentrowało się na radzeniu sobie z określonymi scenariuszami, w których zaufanie musi być budowane lub obsługiwane w jakiś sposób. Prowadzono badania nad rozwojem zaufania w handlu elektronicznym poprzez wykorzystanie systemów reputacji oraz badania dotyczące funkcjonowania takich systemów [18]. Innym problemem jest wiarygodność źródeł informacji w sieci, takich jak te dostarczane przez RS. Na przykład Dong i inni zbadali mechanizmy w celu określenia, którym źródłom należy ufać w obliczu wielu sprzecznych informacji. Bedi i Vashisth rozszerzają tę koncepcję, aby ocenić osoby, które dostarczają informacji, patrząc na historię argumentów, które dostarczyli. Zaufanie jest szczególnie ważną kwestią z punktu widzenia autonomicznych agentów i systemów wieloagentowych. Ideą systemów wieloagentowych jest tworzenie agentów oprogramowania, które będą działać w interesie ich właścicieli, realizując życzenia właścicieli podczas interakcji z innymi podmiotami . W takich interakcjach agenci będą musieli zastanowić się, w jakim stopniu powinni ufać innym podmiotom, czy ufają tym podmiotom w wykonaniu jakiegoś zadania, czy też ufają tym podmiotom, że nie nadużywają kluczowych informacji. W rezultacie wiele pracy znajdujemy na temat zaufania w systemach opartych na agentach, a także w systemach RS . Podejście oparte na argumentacji może służyć do poprawy wydajnościzaufania. Pomimo uznanej zdolności argumentacji do wspierania rozumowania w warunkach niepewności , tylko Prade, Bedi i Vashisth oraz Parsons i inni rozważali użycie argumentów do obliczania zaufania w lokalnym ustawieniu oceny zaufania. Prade proponuje podejście oparte na argumentacji do oceny zaufania, które jest dwubiegunowe (oddzielając argumenty za zaufaniem i za nieufnością) i jakościowe (ponieważ argumenty mogą wspierać różne stopnie zaufania / nieufności). Parsons i inni wyprowadzić logikę argumentacji, w której argumenty wspierają miary zaufania, na przykład miary jakościowe, takie jak „bardzo wiarygodne” lub „nieco niewiarygodne”. Zaproponowano rozmyty model zaufania oparty na wszystkich akceptowanych i nieakceptowanych argumentach generowanych przez agentów w RS. Agenci ci mogą spierać się o swoje przekonania, cele i plany w ramach systemu argumentacji. Jak pokazano w poprzednich sekcjach, jednym z głównych wkładów podejścia opisanego w tym rozdziale jest to, że pozwala nam zintegrować rekomendację i argumentację z zaufaniem, w ramach praktycznego rozumowania agenta. Taka integracja umożliwia agentowi podejmowanie wiarygodnych decyzji i wnioskowanie o nich na poziomie przekonań i celów za pomocą argumentacji. RS można postrzegać jako szczególny przykład systemów decyzyjnych zorientowanych na pomoc użytkownikom w rozwiązywaniu zadań za pośrednictwem komputera. W ciągu ostatnich kilku lat podjęto kilka prób integracji argumentacji z ogólnymi systemami podejmowania decyzji. Technologia agentów została również zintegrowana z tymi systemami w celu modelowania wielu zadań decyzyjnych wymagających rekomendacji i negocjacji, zwłaszcza że agenci ci są doskonałym narzędziem pomagającym użytkownikom lub umożliwiającym im działanie w imieniu użytkowników . Nasze podejście można zastosować w obu kierunkach. Oznacza to, że z jednej strony agent może działać w imieniu użytkownika, biorąc pod uwagę jego / jej preferencje, cele itp. . Agent w oparciu o zaproponowaną koncepcję będzie dostarczał, a także poprawiał rekomendacje w sposób autonomiczny poprzez uzasadnienie. Pomaga to w wykrywaniu, a następnie rozwiązywaniu ewentualnych konfliktów w preferencjach użytkownika i zaleceniach. Z drugiej strony, osobisty agent może pomóc użytkownikowi w procesie rekomendacji, wykorzystując informacje pozyskane w wyniku argumentacji. Oznacza to, że użytkownik korzystający z systemu rekomendacji może otrzymać pomoc osobistego agenta w podejmowaniu decyzji. Dalej, porównując naszą pracę przez model zaufania opracowany dla systemu opartego na agentach , zaproponowaliśmy model zaufania oparty na wszystkich akceptowanych i nieakceptowanych interakcjach generowanych przez agentów w systemie z uwzględnieniem akceptacji użytkownika. W takich interakcjach agenci będą również musieli zastanowić się, w jakim stopniu powinni ufać innym podmiotom, czy ufają tym podmiotom w wykonaniu jakiegoś zadania, czy też ufają tym podmiotom, że nie nadużywają kluczowych informacji. W ostatnich pracach przedstawiono podejście argumentacyjne do sporu o zaufanie, w którym argumentacja jest wykorzystywana do wspierania zadania decyzyjnego związanego z zaufaniem. W przeciwieństwie do naszego podejścia, autorzy używają argumentacji tylko dla zaufania, podczas gdy my również skupiamy się na używaniu rozmytego zaufania i argumentacji dla praktycznego rozumowania przez agenta na temat przekonań. Pomaga to w wyciągnięciu wniosków dla konkretnego użytkownika na podstawie dostępnych informacji.