System kontekstowy działa tylko wtedy, gdy informacje kontekstowe są udostępniane systemowi i udostępniane wszystkim użytkownikom. W systemach kontekstowych dostępnych jest ogromna ilość danych osobowych i poufnych, w tym tożsamość, preferencje, historia użytkowania, lokalizacja itd. Współdzielenie kontekstu oznacza, że system obsługujący kontekst powinien pokazywać innym kontekst jednego użytkownika. Na przykład istotne może być pokazanie aktualnej lokalizacji każdego pracownika w budynku biurowym. Udostępnianie kontekstu wiąże się z poważnymi problemami dotyczącymi prywatności. W przypadku braku wystarczającego poziomu zaufania użytkownik systemu kontekstowego nie może udostępniać innym informacji kontekstowych. Musimy ułatwić wszechobecny dostęp i ograniczone udostępnianie informacji kontekstowych. Modele zaufania mogą odgrywać ważną rolę w wymianie kontekstu i decydowaniu o dostępie do informacji kontekstowych. W zamian model zaufania może wykorzystywać dostępne informacje kontekstowe w celu poprawy swojej wydajności, co skutkuje modelem zaufania opartym na kontekście. Ten oparty na zaufaniu model pozwala peerom zdecydować, którzy inni rówieśnicy są godni zaufania i pozwala im lepiej rozumieć zalecenia innych rówieśników. Każdy peer przechowuje dwa zestawy: (1) zestaw Q dla rówieśników bezpośrednio zaufanych i (2) zestaw R dla polecających. Jedną z wad tego modelu jest problem ze skalowalnością. W tym badaniu nie odniesiono się wprost do wiarygodności modelu. W proponowanym przez nas schemacie problem skalowalności można rozwiązać za pomocą schematu agregacji, który poprawia skalowalność mechanizmu zarówno pod względem liczby zasobów, które może obsłużyć system, jak i liczby transakcji wymaganych do zbieżności przy odpowiednim zaufaniu poziomy. Oparte na reputacji podejście do rozszerzania Gnutelli, w którym jednostka używa protokołu odpytywania do wysyłania zapytań i wybierania docelowych peerów. Każda jednostka przechowuje informacje na temat własnych doświadczeń z docelowymi rówieśnikami i dzieli się takimi doświadczeniami, gdy są odpytywani przez innych rówieśników. W tym podejściu peer wysyła swoje żądanie do wszystkich swoich sąsiadów, niezależnie od ich wiarygodności. Ta praktyka jest nieefektywna, daje nieuczciwym rówieśnikom ciągłe możliwości niszczenia i wpływania na reputację sieci i nie jest skalowalna wraz ze wzrostem liczby rówieśników. Proponuje się zarządzanie zaufaniem w systemie informacyjnym P2P, w którym nacisk kładzie się na wdrożenie ogólnej infrastruktury w celu wdrożenia dowolnego modelu zaufania. Zaproponowano model zaufania, w którym rówieśnicy składają skargi na podstawie złych doświadczeń, jakie mieli podczas interakcji z innymi rówieśnikami. Jednym z ograniczeń tego modelu jest to, że jest on oparty na binarnej skali zaufania (tj. Peer jest godny zaufania lub nie). Dlatego po złożeniu skargi na peer-to-peer jest uznawany za niewiarygodny, mimo że był godny zaufania w przypadku wszystkich poprzednich transakcji. Ponadto to podejście nie ma mechanizmu uniemożliwiającego złośliwemu partnerowi złożenie dowolnej liczby skarg i potencjalnie spowodowanie ataku typu „odmowa usługi”. Od momentu powstania systemów zaufania wielu badaczy zajmowało się pojęciem wiarygodności na różnych etapach. Niektóre systemy zaufania zakładają korelację między wiarygodnością a uczciwością, to znaczy zakładają, że godni zaufania rówieśnicy udzielają uczciwych rekomendacji, a niewiarygodni rówieśnicy udzielają nieuczciwych rekomendacji. Takie systemy zaufania są podatne na nieuczciwe ataki. Godny zaufania partner może nieuczciwie zalecić odizolowanie innych konkurujących, godnych zaufania rówieśników, a tym samym zwiększyć swój zysk. Inne systemy zaufania zakładają, że większość rówieśników jest uczciwa i dlatego przeciwdziała wpływowi nieuczciwych na sieć rekomendacji. Inni, na przykład, zakładali, że peer jest wyposażony w uczciwych rekomendujących, a rówieśnicy są silni i odporni na nieuczciwych rówieśników i ryzykowne otoczenie. Wiarygodność peerów jest wykorzystywana, aby zrównoważyć ryzyko nieuczciwych informacji zwrotnych. W tych podejściach nie stosuje się żadnego mechanizmu do identyfikacji i zapobiegania zanieczyszczaniu sieci rekomendacji przez nieuczciwych peerów. System zaufania używa spójności odpowiedzi do przewidywania uczciwości. Zakłada się, że konsekwentni rówieśnicy są uczciwi i odwrotnie. Każdy partner ma zestaw zaufanych sojuszników, za pośrednictwem których przeprowadzana jest kontrola spójności. Sprawdzenie polega na poproszeniu jednego lub więcej zaufanych sojuszników o wysłanie rekomendacji dla docelowego peera do rekomendującego. Partner źródłowy porównałby otrzymaną rekomendację bezpośrednio z rekomendacją otrzymaną przez zaufanych sojuszników. Zakładając, że prośby przyjdą w stosunkowo krótkim czasie, rekomendujący powinien udzielić odpowiedzi bez różnicy wartości lub z niewielką różnicą. Dlatego jeśli różnica jest większa niż pewien próg, rekomendujący jest niekonsekwentny. Polecający zostałby zastąpiony z listy rekomendujących rówieśników źródła i oznaczony jako nieuczciwy, aby nie został ponownie umieszczony na liście. Jednak ta metoda nie pozwala wykryć nieuczciwych rówieśników, którzy udzielają spójnych odpowiedzi. Bayesowskie systemy zaufania wykorzystują dystrybucję beta do przewidywania poziomu zaufania partnera na podstawie liczby wiarygodnych i niewiarygodnych transakcji jako parametrów dystrybucji. Parametry dystrybucji to α = NT + 1 i β = NU + 1, gdzie NT i NU to liczba wiarygodnych i niewiarygodnych transakcji z docelowym partnerem zgłoszonym przez osobę rekomendującą. Obliczane jest oczekiwane prawdopodobieństwo wiarygodności peera jako: E (p) = α / (α + β). Wiarygodność peera mającego parametry (1: 1), (5: 2) i (3:10) wynosi 0: 5, 0: 714, a 0: 231. Implikuje optymistyczną politykę wobec obcych, ponieważ nowy partner bez transakcji będzie miał zaufanie 0: 5. przekraczający (1 – q) kwantyl. Rekomendacje podające te wartości odstające są uważane za nieuczciwe. Niedawno Wang i inni. zaproponowali kontekstowy model zaufania wykorzystujący sieć bayesowską do integracji informacji kontekstowych z zestawu wiarygodnych rekomendujących. Mohammad et al. al. przedstawili oparty na interakcji, kontekstowy model zaufania które identyfikuje właściwości zaufania na podstawie kontekstu i informacji o ryzyku. Ponadto wprowadzają parametr podobny do kontekstu w obliczaniu zaufania do obsługi interakcji pośrednich. Ostatnio Marcin Sydow opisał wczesny etap badań mających na celu poprawę przewidywania zaufania w sieciach społecznościowych przy użyciu metod uczenia maszynowego. Jednak te modele zaufania używają kontekstu jako parametru statycznego i dlatego nie nadają się do kontekstowego środowiska komputerowego.