Zaufanie w Cyberspace : Zaufanie i nieufność

Nieufność jest zwykle ignorowana w większości prac nad zarządzaniem zaufaniem. Jednak prawdziwy świat uważa, że ​​nieufność jest co najmniej tak samo ważna jak zaufanie. W przypadku sieci z adwersarzami systemy powinny zwracać jeszcze większą uwagę na informacje o nieufności niż na informacjach o zaufaniu, ponieważ szkody wyrządzane przez adwersarzy są zwykle tak poważne, że sieć może zostać całkowicie zamknięta. Wobec braku nieufności nie jest jasne, czy wartość zaufania równa 0 oznacza nieufność, czy „brak opinii”. Jiang i Baras  wyraźnie ustalili wartości zaufania między -1 a 1, mając nieufność oznaczoną jako -1 i „brak opinii” jako 0. Modelowanie nieufności jako negatywnego zaufania wiąże się z kilkoma wyzwaniami, na przykład, jeśli konieczne jest połączenie nieufności w łańcuchu zaufania. Guha podali trzy modele propagowania zaufania i nieufności: tylko zaufanie, gdzie nieufność jest całkowicie ignorowana; jednoetapowa nieufność, gdzie kiedy nie ufam j, nie ufam wszystkim opiniom j, a zatem nieufność propaguje tylko jeden krok; i propaguje nieufność, gdy zaufanie i nieufność rozprzestrzeniają się razem. Wyniki eksperymentów wykazały, że jednoetapowa propagacja nieufności działa lepiej w porównaniu z innymi. Dlatego ten model wykresu obejmuje również nieufność za pomocą jednostopniowego modelu nieufności. Zatem jeśli cij <0, nie będę prosić j o opinię, podczas gdy zaufanie negatywne mam na j wpływa na zaufanie innych oszacowań na j. Następnie ogólna zasada oceny podana w równaniu powyżej została zmodyfikowana, aby uwzględnić nieufność w następujący sposób:

Rozumie się, że jeśli tkj wypadnie negatywnie, oznacza to nieufną opinię.

Zaufanie w Cyberspace : Zaufanie i nieufność

Nieufność jest zwykle ignorowana w większości prac nad zarządzaniem zaufaniem. Jednak prawdziwy świat uważa, że ​​nieufność jest co najmniej tak samo ważna jak zaufanie. W przypadku sieci z adwersarzami systemy powinny zwracać jeszcze większą uwagę na informacje o nieufności niż na informacjach o zaufaniu, ponieważ szkody wyrządzane przez adwersarzy są zwykle tak poważne, że sieć może zostać całkowicie zamknięta. Wobec braku nieufności nie jest jasne, czy wartość zaufania równa 0 oznacza nieufność, czy „brak opinii”. Jiang i Baras  wyraźnie ustalili wartości zaufania między -1 a 1, mając nieufność oznaczoną jako -1 i „brak opinii” jako 0. Modelowanie nieufności jako negatywnego zaufania wiąże się z kilkoma wyzwaniami, na przykład, jeśli konieczne jest połączenie nieufności w łańcuchu zaufania. Guha podali trzy modele propagowania zaufania i nieufności: tylko zaufanie, gdzie nieufność jest całkowicie ignorowana; jednoetapowa nieufność, gdzie kiedy nie ufam j, nie ufam wszystkim opiniom j, a zatem nieufność propaguje tylko jeden krok; i propaguje nieufność, gdy zaufanie i nieufność rozprzestrzeniają się razem. Wyniki eksperymentów wykazały, że jednoetapowa propagacja nieufności działa lepiej w porównaniu z innymi. Dlatego ten model wykresu obejmuje również nieufność za pomocą jednostopniowego modelu nieufności. Zatem jeśli cij <0, nie będę prosić j o opinię, podczas gdy zaufanie negatywne mam na j wpływa na zaufanie innych oszacowań na j. Następnie ogólna zasada oceny podana w równaniu powyżej została zmodyfikowana, aby uwzględnić nieufność w następujący sposób:

Rozumie się, że jeśli tkj wypadnie negatywnie, oznacza to nieufną opinię.

Zaufanie w Cyberspace : Graficzna algebraiczna interpretacja ustanowienia zaufania w sieciach autonomicznych

Szacowanie zaufania w sieciach o ograniczonych zasobach, takich jak mobilne sieci ad hoc (MANET), sieci czujników, samochodowe sieci ad hoc (VANET) i wszechobecne systemy komputerowe, jest znacznie bardziej złożone niż w tradycyjnych sieciach, takich jak Internet i bezprzewodowe sieci LAN ze stacjami bazowymi i punkty dostępu. Sieci autonomiczne, które nie mają ani wcześniej ustalonej infrastruktury, ani scentralizowanych serwerów sterujących, zależą od swoich rówieśników, z którymi tworzą sieć. Istotne cechy rozproszonego zarządzania zaufaniem w MANET-ach względem sieci tradycyjnych i scentralizowanych są wymienione poniżej:

  • Niepewność i niekompletność. Wartość zaufania mieści się w zakresie od -1 do 1, gdzie -1 oznacza całkowitą nieufność, a 1 oznacza pełne zaufanie. Zaufane dowody są dostarczane przez rówieśników, które mogą być niekompletne, a nawet nieprawidłowe.
  • Lokalność. Informacje o zaufaniu koncentrują się lokalnie. Globalna wymiana wartości zaufania wymaga wysokich kosztów komunikacji, ponieważ szybkie zmiany w sieci prowadzą do częstych aktualizacji wartości zaufania.
  • Obliczenia rozproszone. Każdy węzeł przeprowadza ocenę zaufania niezależnie.

Jednak rozproszone obliczenia zaufania mają kilka zalet. Właściwość Lokalność oszczędza zasoby sieciowe, takie jak moc, przepustowość, obliczenia i pamięć. Pozwala to również uniknąć pojedynczego punktu awarii. Ponadto sieci autonomiczne są dynamiczne z częstymi zmianami topologii i członkostwa, a rozproszone obliczenia zaufania obejmują kontakt tylko z kilkoma łatwo dostępnymi węzłami. Innymi słowy, ocena zaufania ogranicza się do informacji dostarczanych przez bezpośrednio połączone węzły, to znaczy opiera się na lokalnych interakcjach. Pośrednie relacje między dwoma podmiotami, które wcześniej nie wchodziły w interakcję, są realizowane przy użyciu bezpośrednich relacji zaufania, które mają ze sobą węzły pośrednie. Kilka prac badawczych dotyczących obliczania zaufania opiera się na relacjach z sąsiadami z jednym przeskokiem. Bezpośrednie obserwacje są wymieniane między sąsiednimi węzłami. Załóżmy, że węzeł A otrzymuje opinie swoich sąsiadów na temat węzła X w sieci. Węzeł A łączy opinie swoich sąsiadów, jeśli są one bliskie opinii A w tym węźle. W artykule przedstawiono metodę powiązania wiarygodności węzłów z jakością dostarczanych przez nie danych. Jiang i Baras badają wnioskowanie o wartości zaufania, a nie o generowaniu bezpośredniego zaufania, wykorzystując wartości Eigen Trust wprowadzone przez Kamvara . W Eigen Trust opinie sąsiadów są ważone przez zaufanie, jakim obdarzają ich:

gdzie:tik oznacza lokalną wartość zaufania i obliczoną dla węzła k od sąsiadów j  Wartości zaufania są znormalizowane, aby spełnić S; c, y = 1. Aby rozwiązać problem zmowy adwersarzy, zakładają, że w sieci są rówieśnicy, którym można wstępnie zaufać. Podobne algorytmy oceniają zaufanie poprzez łączenie opinii wybranej grupy użytkowników. Jednym możliwym wyborem dla wybranych użytkowników są sąsiedzi typu one-hop. Oprócz powyższych prac, obszerne badania skupiły się na projektowaniu zdecentralizowanych protokołów zaufania. Formalnie wszystkie te protokoły kategoryzują informacje o zaufaniu jako bezpośrednie zaufanie i zalecenia i są oceniane poprzez agregowanie opinii zaufania wzdłuż określonej ścieżki. Jiang i Baras sformułowali regułę interakcji lokalnej przy użyciu teorii grafów algebraicznych i przedstawili teoretyczne uzasadnienie zarządzania siecią, które ułatwia propagację zaufania. Model wykorzystuje bezpośrednie połączenia zaufania między węzłami jako skierowany graf (dwuznak) G (V,E), zwany grafem zaufania. Węzły wykresu to użytkownicy / podmioty w sieci. Załóżmy, że liczba węzłów w sieci wynosi N, to znaczy |V| = N, a węzły są oznaczone indeksami [0,1 ,. . ., N – 1}. Skierowany łuk od węzła i do węzła j, oznaczony jako (i, j), odpowiada relacji zaufania, jaką podmiot I, nazywany również powiernikiem, ma z podmiotem j, zwanym również powiernikiem. Każdy łuk ma również wagę zwaną wartością ufności. Funkcja wagi np.

VxV → W, gdzie W = [-1,1] reprezentuje stopień przekonania i na j. W digrafie, łuki łączące dwa węzły w tym samym kierunku nazywane są łukami równoległymi, a pętla to łuk, który łączy węzeł ze sobą. Załóżmy, że wykres zaufania jest prostym wykresem bez równoległych łuków lub pętli, ponieważ uważa się, że relacja zaufania znajduje się między dwiema odrębnymi jednostkami i jest wyjątkowa w danym kontekście. Zbiór sąsiadów dla węzła i jest określony przez następujące równanie:

Rysunek

ilustruje przykład wykresu zaufania. W przypadku jednorodnej sieci rozproszonej wszystkie węzły są traktowane równo. Jeśli węzeł i chce oszacować wiarygodność węzła j, wymagane jest zagregowanie wszystkich opinii jego sąsiadów na temat j, czyli relacji zaufania, jakie sąsiedzi mają względem j. Można to interpretować jako następującą ogólną zasadę:

Obowiązkowa zasada jest taka, że nie bierzemy pod uwagę opinii samego węzła docelowego. Funkcja f(.) Powinna spełniać następujące właściwości:

  • Węzły ufają sobie, to znaczy tti = 1.
  • —1 ≤ f(.) ≤ 1, ponieważ nasza wartość zaufania mieści się w zakresie od -1 do1.
  • Opinie węzłów o wysokich wartościach ufności są bardziej realistyczne, więc powinny mieć większą wagę.

Zaufanie w Cyberspace : Wyzwania technologiczne związane z bezprzewodowym routingiem ad hoc

Topologia będzie się różnić, ponieważ niektóre węzły będą wchodzić i wychodzić z zasięgu sieci bezprzewodowej. Dlatego liczba przeskoków między źródłem a miejscem docelowym również będzie się różnić. Przepustowość sieci również będzie się zmieniać, ponieważ im większa liczba przeskoków, tym większe będzie opóźnienie routingu. Gdy odległość między węzłami bezprzewodowymi wzrasta, stosunek sygnału do szumu (SNR) maleje, a osiągalna przepustowość zostaje zmniejszona. Problemy z trasowaniem dzielą się na dwie kategorie: wykrywanie tras i konserwacja tras. Routing można również podzielić na dwa różne modele: routing proaktywny, w którym tablice routingu we wszystkich węzłach są stale aktualizowane; reaktywny routing, w którym tabele routingu są aktualizowane tylko na żądanie. Routing proaktywny powinien być używany, gdy mobilność węzła jest niska, a ruch w sieci usługowej wymaga czasu rzeczywistego. Routing reaktywny jest używany, gdy zapotrzebowanie na transmisję w czasie rzeczywistym jest niskie. Wykrywanie tras jest przeprowadzane tylko wtedy, gdy potrzebna jest nowa trasa lub gdy stara trasa nie jest już sprawna. Kolejnym wyzwaniem technicznym jest skalowalność.

Gupta i Kumar pokazali bardzo interesujący wynik oparty na prostym modelu interferencji. Jeśli istnieje N węzłów w ograniczonym regionie, całkowita przepustowość sieci bezprzewodowej ad hoc rośnie przy √N, co oznacza, że ​​przepustowość na węzeł spada o 1/√N. Dlatego przy dużej liczbie węzłów wydajność na węzeł zbliża się do zera. Liczba aktualizacji tras również wzrośnie wraz z liczbą węzłów. Jest to oczywiście problem ze skalowaniem. Trzecim wyzwaniem jest zasilanie węzłów mobilnych za pomocą baterii. Przesyłanie pakietów w celu aktualizacji tras lub pakietów innych węzłów może kusić użytkowników do wyłączenia sprzętu i włączenia go tylko wtedy, gdy chcą się komunikować. Rozwiązaniem, które wydłuża żywotność baterii, jest produkcja lepszych baterii, dostosowanie mocy nadajnika do długości ścieżki bezprzewodowej oraz przełączenie sprzętu w tryb uśpienia, gdy nie ma ruchu. Najpoważniejszym wyzwaniem jest bezpieczeństwo. W niektórych pracach znalezionych w literaturze podjęto próbę zabezpieczenia bezprzewodowych sieci ad hoc jako głównego tematu. Wszystkie opisują zasady i metody dodawania zabezpieczeń do istniejących protokołów routingu ad hoc, gdzie bezpieczeństwo nie było problemem od samego początku. Obecnie bardzo ograniczającym czynnikiem jest pojemność terminali. Gdy N terminali, z których każdy ma pojemność C, ściśle ze sobą współpracuje, tworząc sieć ad hoc, użyteczna pojemność CU każdego terminalu (z powodu zakłóceń) to CU = C /√N. Ze 100 zaciskami w sieci, użyteczna pojemność każdego terminala będzie wynosić tylko 10% jego pierwotnej pojemności. Protokół routingu może wykorzystywać 70% -80% tej przepustowości, jeśli terminale są bardzo mobilne. Aby sieć ad hoc była bezpieczna, konieczna jest pewna forma uwierzytelnienia, która z łatwością może wykorzystać resztę przepustowości, zwłaszcza jeśli jest oparta na infrastrukturze klucza publicznego i kryptografii progowej. Bezpieczeństwo w samoorganizujących się sieciach charakteryzuje dostępność, integralność, poufność, autentyczność i odpowiedzialność. Podstawowym wyzwaniem związanym z utrzymaniem bezpieczeństwa i niezawodności samoorganizujących się sieci jest obsługa zaufania oraz posiadanie wydajnych i działających mechanizmów bezpieczeństwa i sieci w ciągle zmieniających się warunkach w sieciach ad hoc, w których węzły przemieszczają się swobodnie; komunikować się między sobą za pomocą podatnej na błędy komunikacji bezprzewodowej multihop; i może dynamicznie dołączyć, opuścić lub przegrać.

Zaufanie w Cyberspace : Samoorganizujące się bezprzewodowe sieci ad hoc

Bezprzewodowa sieć ad hoc to zbiór urządzeń lub węzłów komunikacyjnych, które chcą komunikować się bez obciążania stałej infrastruktury i z góry określonej topologii łączy. Poszczególne węzły są odpowiedzialne za dynamiczne wykrywanie innych węzłów, z którymi mogą się bezpośrednio komunikować. Kluczowym założeniem jest to, że nie wszystkie węzły mogą bezpośrednio komunikować się ze sobą, więc węzły muszą przekazywać pakiety innych węzłów w celu dostarczania danych przez sieć, co skutkuje siecią ad hoc typu multihop. Istotną cechą sieci ad hoc są szybkie zmiany w łączności i charakterystyce łączy, które są wprowadzane z powodu mobilności węzłów i praktyk kontroli mocy. Sieci ad hoc można budować wokół dowolnej technologii bezprzewodowej, w tym podczerwieni i częstotliwości radiowej. Najprostszą sieć ad hoc można postrzegać jako bezprzewodową sieć radiową między zbiorem pojazdów, statków, samolotów, a nawet pieszych ludzi, działających na obszarze geograficznym bez infrastruktury sieciowej. Niektóre przykłady takich scenariuszy to samochody osobowe i ciężarowe na drogach krajowych lub autostradach oraz osoby na wycieczkach terenowych, w których nie ma dostępnej infrastruktury. Solidny schemat sieciowy ad hoc uwalnia jednostkę od geograficznych ograniczeń sieci stacjonarnej.

Zaufanie w Cyberspace : Zaufaj sieciom autonomicznym i samoorganizującym się

Sieci autonomiczne są adaptacyjne i samoorganizujące się, w związku z czym ich zabezpieczenie ma kluczowe znaczenie. Większość schematów bezpieczeństwa sugerowanych dla sieci autonomicznych, na przykład MANET, opiera się na pewnych fundamentalnych założeniach dotyczących wiarygodności uczestniczących hostów i bazowego systemu sieciowego. Jeśli sieć autonomiczna ma osiągnąć ten sam poziom akceptacji, co tradycyjne infrastruktury sieci przewodowych i bezprzewodowych, to struktura zarządzania zaufaniem musi stać się integralną częścią jej infrastruktury. Głównym celem tego rozdziału jest zwrócenie uwagi na krytyczne kwestie, które mają wpływ na zarządzanie zaufaniem i wyszczególnienie podejść stosowanych do ustanawiania zaufania, które dynamicznie ocenia wiarygodność uczestniczących węzłów w sieciach autonomicznych. Wraz z rosnącą zależnością od Internetu i integracją różnych usług komputerowych i sieciowych, zakłócenia łączności internetowej i dostępności usług sieciowych mogą mieć głęboki wpływ na życie wielu osób, a także na ekonomiczną żywotność przedsiębiorstw i organizacji. Podobnie, bezpieczeństwo narodów jest bezpośrednio związane z dostępnością, zdolnością do przetrwania i niezawodnością Internetu oraz wielu internetowych sieci danych. Dlatego też przedłużająca się lub nieprzewidywalna niedostępność usług sieciowych jest nie do przyjęcia. Jednym z największych wyzwań XX wieku było opracowanie metod zapewniających, że usługi sieciowe mogą w odpowiednim czasie przetrwać nieoczekiwane wyzwania w zakresie bezpieczeństwa i dostępności, takie jak ataki, katastrofy naturalne na dużą skalę i usterki. Autonomiczne sieci i systemy, zwłaszcza samozarządzające się bezprzewodowe sieci ad hoc, zasilane proaktywnymi komputerami uwzględniającymi sytuacje, odegrają ważną rolę w sprostaniu temu wyzwaniu. Sieć autonomiczna to sieć, która może automatycznie rozszerzać, zmieniać, konfigurować i optymalizować swoją topologię, zasięg, pojemność, rozmiar komórki i alokację kanałów w oparciu o zmiany lokalizacji, wzorzec ruchu, zakłócenia oraz sytuację lub środowisko. Bezprzewodowe sieci ad hoc to specjalna klasa sieci autonomicznych, w których możliwości lub istnienie łączy i możliwości lub dostępność węzłów lub usług sieciowych są uznawane za losową funkcję czasu. Definicja użytej terminologii:

  • System autonomiczny. Jest to system z funkcjami autonomicznymi, które zapewniają możliwości samozarządzania, takie jak samokonfiguracja, samoobrona, samonaprawianie i samoczynna optymalizacja.
  • Węzeł autonomiczny. Węzeł, który wykorzystuje funkcje autonomiczne. Może działać na dowolnej warstwie stosu sieciowego. Na przykład routery, przełączniki, komputery osobiste, menedżery połączeń itp.
  • Sieć autonomiczna. Jest to zbiór autonomicznych węzłów, które samodzielnie zarządzają i samoczynnie optymalizują zasady i funkcje dyktowane przez sieć.

Węzeł autonomiczny nie jest zależny od zewnętrznych danych wejściowych do działania; musi rozumieć swoją obecną sytuację i otoczenie oraz działać zgodnie ze swoim obecnym stanem. Węzły autonomiczne komunikują się ze sobą za pośrednictwem struktury autonomicznej kontroli, która zapewnia solidną i bezpieczną nakładkę komunikacyjną. Ramy kontroli autonomicznej są samoorganizujące się i autonomiczne. Kluczowe cechy sieci autonomicznej są następujące:

  • Interwencja użytkownika. Jest to sieć autonomiczna, która minimalizuje potrzebę interwencji użytkownika.
  • Decentralizacja i dystrybucja. Celem sieci autonomicznej jest zminimalizowanie zależności od elementów centralnych.
  • Modułowość. Ma zapewnić niezależność funkcji i warstwy.
  • Autonomia. Funkcjonalność autonomiczna jest niezależna od funkcji węzła.
  • Konsystencja. Sieć autonomiczna ma na celu poprawę zdolności sieci i usług do radzenia sobie z nieprzewidzianymi zmianami, w tym zmianami topologii, obciążenia, zadań, właściwości fizycznych i logicznych sieci, do których można uzyskać dostęp, i tak dalej.

Szeroko zakrojone rozwiązania autonomiczne wymagają od projektantów uwzględnienia szeregu kompleksowych problemów wpływających na modele programowania, modelowanie i rozumowanie sieciowe i kontekstowe, zdecentralizowane algorytmy, pozyskiwanie zaufania i utrzymanie. Kwestie te i prawdopodobnie ich rozwiązania mogą pociągać za sobą wiele podejść i wyników z zaskakująco szerokiego zakresu dyscyplin. Komunikacja autonomiczna implikuje wyższy stopień samozarządzania i autooptymalizacji niż w konwencjonalnych sieciach, które są oddzielone od ludzkiej interwencji. Aby zapewnić samodzielne zarządzanie i możliwości optymalizacji, konieczne jest zbadanie podejścia kontekstowego w celu ulepszenia właściwości sieci. Jednostka oprogramowania, składniki sieci i agenci oprogramowania służą do zbierania informacji kontekstowych związanych z obecnością, lokalizacją, tożsamością i profilem użytkowników i usług. Typowe użycie kontekstowe obejmuje lokalizowanie usług i użytkowników, wywoływanie usług zgodnie z zachowaniem użytkownika, dostarczanie informacji o składzie usługi, ułatwianie mechanizmów komunikacji ad hoc między użytkownikami oraz dostosowywanie jakości usług do zmian w środowisku w wyniku użytkownika. i mobilność usług. Kontekst to nieprzetworzona informacja, która prawidłowo zinterpretowana identyfikuje cechy jednostki. Podmiotem może być osoba, miejsce, urządzenie lub dowolny obiekt, który ma znaczenie dla interakcji między użytkownikiem a usługami. Model danych i protokół rozpowszechniania reprezentują i przechowują informacje kontekstowe oraz zarządzają nimi. Protokół umowy na poziomie kontekstu może zapewnić automatyczne dopasowywanie kontekstu do profilu użytkownika, możliwości terminala oraz wymagań i oferty usług. Podstawowym celem takiego protokołu jest adaptacyjna dystrybucja informacji kontekstowych do wielu mobilnych i stałych źródeł i miejsc docelowych (np. Urządzenia, komponenty usług) przy użyciu (negocjowanych) określonych atrybutów rozpowszechniania, takich jak oszczędność energii i koszt. Rozpowszechnianie kontekstu można osiągnąć zarówno w trybie ciągnięcia, jak i wypychania.

Zaufanie w Cyberspace : Powiązana praca

Model analizy tajności klucza sesyjnego protokołu A-GDH.2 . Model ustanawia tajność terminu, sprawdzając spójność zbioru równań liniowych. Model może być również użyty do analizy poufności przekazywania poprzez ocenę tajności klucza sesji, który zawiera sekrety uczestników w informacjach o intruzach. Protokół jest modelowany jako zbiór komunikatów, zbiór zdarzeń operujących na komunikatach oraz zbiór śladów, gdzie ślad jest sekwencją zdarzeń. Komunikat może zostać wygenerowany w protokole z początkowego zestawu komunikatów, jeśli istnieje ślad z początkowego zestawu komunikatów do komunikatu. Dlatego wiadomość pozostaje tajemnicą, jeśli nie ma śladu penetratora do wiadomości z początkowej informacji. Protokół spełnia wymogi poufności przekazywania, jeśli nie ma śladów dla bieżącej sesji protokołu, tak że tajna wiadomość może zostać wygenerowana z początkowego zestawu wiadomości. Model używa funkcji rang do przypisywania dodatnich rang wszystkim wiadomościom, które nie są tajne, a poza tym zerowe. Oczekuje się, że protokół będzie generował tylko pozytywne komunikaty z pozytywnego zestawu komunikatów. Aby zweryfikować poufność przekazywania dalej, do klucza z poprzedniej sesji oprócz sekretów bieżącej sesji przypisywana jest wartość zero. Dlatego protokół grupowy spełnia wymogi zachowania poufności przekazywania, jeśli wszystkie komunikaty, które mogą wynikać ze wszystkich możliwych śladów bieżącej sesji korzystających z wiadomości znanych penetratorowi, mają rangę dodatnią. Model oparty na komunikacji sekwencyjnych procesów (CSP) do analizy poufności przekazywania. Rola każdego użytkownika jest zdefiniowana w modelu CSP. Procesy opisane są zdarzeniami. Ślad procesu to skończona sekwencja wydarzeń, w które proces zaangażował się do pewnego momentu. Specyfikacja to predykat dotyczący śladów procesu. Aby modelować poufność przekazywania, definiuje się wyciek zdarzeń odpowiadający ujawnieniu klucza długoterminowego. Moment, w którym wystąpi zdarzenie wycieku, definiuje się jako liczbę zdarzeń w śladzie przed wyciekiem plus 1.

Wnioski i przyszłe prace

Przedstawiono obliczeniowy model zaufania dla aplikacji P2P, na którym podejmowane są decyzje dotyczące członkostwa w grupie i uczestników aplikacji grupowych. W aplikacjach P2P, które wymagają bezpieczeństwa informacji, transmisja i przechowywanie informacji odbywa się przy użyciu symetrycznych kluczy sesji, a nie wymagającej dużej mocy obliczeniowej kryptografii klucza publicznego. Wyciek lub ujawnienie tych kluczy spowodowałoby utratę poufności cennych danych. Dlatego też należy zapewnić bezpieczeństwo tych kluczy. Utajnienie przekazywania protokołów używanych przez GKA do ustanawiania kluczy sesji jest wskaźnikiem bezpieczeństwa tych kluczy. Zaproponowano formalne ramy porównywania protokołów GKA w odniesieniu do częściowej tajemnicy przekazywania, w warunkach silnej korupcji, i wykorzystano je do opracowania modelu zaufania. Proponowana struktura częściowej poufności przekazywania składa się z metryki, DPFS i algorytmów do jej obliczania. Ramy są zilustrowane poprzez analizę zestawu dziewięciu protokołów. Sześć z tych protokołów – BD, JV, BW, STW, KPT i KLL wykorzystują prymityw kryptograficzny DH. Zaobserwowano, że protokoły BD, STW, KPT i KLL mają podobną siłę w odniesieniu do częściowego utajnienia przekazywania. Chociaż protokół JV jest lepszy, BW daje najlepsze wyniki, dla dużego n, to znaczy liczby uczestników. Analiza daje wgląd w projekty protokołów GKA z ulepszoną częściową tajemnicą przekazywania. Analizowany zestaw zawiera również protokoły BN, IDBP i A-GDH.2. Wywnioskowano, że w odniesieniu do częściowego utajnienia przekazywania, protokół A-GDH.2 jest najsilniejszy, a za nim znajdują się protokoły IDBP i BN. Członkowie aplikacji P2P muszą podejmować wiele dynamicznych decyzji dotyczących dołączania i opuszczania grup. Ponieważ weryfikowalność konsekwencji każdego działania nie jest wykonalna obliczeniowo, do oparcia tych decyzji potrzebna jest koncepcja zaufania lub wiarygodności. W tym rozdziale zaproponowano model zaufania dla aplikacji P2P w oparciu o behawioralne i obliczeniowe zaufanie członków oraz grupy jako całości. Wartość zaufania dla osób zależy od prawdopodobieństwa ujawnienia tajemnic danej osoby i jest oceniana przez centralną aplikację certyfikującą zaufanie, która opiera swoją ocenę na zachowaniu sieci i historii danej osoby. DPFS można następnie obliczyć przy użyciu struktury opisanej w tym rozdziale. GTS, oparty na DPFS, to prawdopodobieństwo, że klucz sesji pozostanie tajny. Poszczególne osoby i członkowie grupy mogą podejmować decyzje, takie jak dołączenie do grupy, zezwolenie na nowe dołączenie, opuszczenie grupy lub wykluczenie osoby, odpowiednio na podstawie GTS i ITS. OWS aplikacji zależy od ITS i używanego protokołu GKA. Stabilność GTS zależy od maksymalnej wartości, jaką może utrzymać w obecności osób o niskim poziomie zaufania. Metryka siły zaufania jest wprowadzana w celu oznaczenia tej jakości w aplikacji. Siła zaufania zależy wyłącznie od używanego protokołu GKA. Dziewięć protokołów w zestawie testowym jest analizowanych pod kątem siły zaufania. Siła zaufania i wymagania obliczeniowe protokołu określiłyby jego przydatność do aplikacji P2P. Przeanalizowano przydatność tych protokołów do trzech różnych aplikacji P2P o różnych wymaganiach. Analiza prowadzi do wniosku, że wyboru protokołu należy dokonać na podstawie szczegółowej analizy wymagań dotyczących siły zaufania oraz zasobów obliczeniowych aplikacji. Przydatność protokołów GKA do aplikacji jest niezależna od ich prymitywów kryptograficznych. Ten rozdział otwiera kilka możliwości dla przyszłych badań. Opracowanie aplikacji, która może pełnić funkcję centralnego podmiotu certyfikującego zaufanie do oceny ITS, we wszechświecie grup, jest interesującym tematem badawczym. Innym interesującym wymogiem badawczym jest opracowanie statystycznego podejścia do obliczania GTS dla aplikacji w czasie projektowania, gdy rzeczywisty zbiór użytkowników nie jest znany. Oparta na typach klasyfikacja tajemnic w protokołach GKA jest również tematem, który warto zbadać.

Zaufanie w Cyberspace : Uwierzytelniona jednokierunkowa GKA oparta na identyfikatorze z dwuliniowym protokołem parowania

Protokół IDBP to protokół GKA oparty na parowaniu bilinearnym i problemie logarytmu dyskretnego. Każdy uczestnik ma jeden długoterminowy i jeden krótkoterminowy, a są tylko dwie rundy obliczeń. Istnieją dwa sposoby ujawnienia tajności klucza sesyjnego – wiedza penetratora o dowolnych dwóch kluczach długoterminowych lub kluczu długoterminowym i odpowiadającym mu kluczu krótkoterminowym. W pierwszym przypadku, ponieważ istnieje n kluczy długoterminowych, a dowolne dwa ujawniłyby klucz sesji, prawdopodobieństwo kompromitacji klucza sesyjnego wyniesie 1 – (1 – p)n – np (1 – p)n-1. In w drugim przypadku, ponieważ istnieje n długookresowych i odpowiadających im krótkoterminowych par kluczy, prawdopodobieństwo kompromitacji klucza sesyjnego wyniesie 1– (1- p2)n. Jednak złamanie jednego długoterminowego klucza nie skutkuje kompromitacją klucza sesyjnego, a zatem protokół spełnia częściową poufność przekazywania. W tym protokole 0 jest niskie, ponieważ są tylko dwie rundy obliczeń. Siła zaufania jest niska, ponieważ nawet jeśli jeden członek ma niski poziom ITS, GTS byłby mniejszy niż 1. W przypadku subskrybowanego czasopisma zależność od kluczy jednego członka nie jest pożądana. Co więcej, utrata dwóch kluczy długoterminowych jest bardziej prawdopodobna, jeśli istnieje dwóch lub więcej mniej zaufanych członków. Dlatego protokół nie jest zalecany dla subskrybowanych czasopism. W przypadku tablicy interaktywnej jest to zalecany protokół, ponieważ wartości zaufania poszczególnych osób są prawdopodobnie wyższe, a utrata długoterminowych kluczy jest zdarzeniem bardzo mniej prawdopodobnym, a niskie p jest pożądane w kontekście ponownego obliczania klucza. W przypadku spotkań zarządu jest to słabo zalecany protokół, ponieważ p jest mały, ale niski wynik zaufania jednego członka może obniżyć GTS. Tabela poniższa zawiera podsumowanie naszej dyskusji na temat stosowalności protokołów w zestawie protokołów do aplikacji.

Skróty R, NR i WR oznaczają zalecane, niezalecane i słabo zalecane, odpowiednio. Powyższa analiza zapewnia pewien wgląd w wymagania aplikacji i charakterystyki protokołów. Ważną obserwacją jest to, że przydatność protokołu dla aplikacji nie zależy od użytych prymitywów kryptograficznych, gdy czas obliczeniowy jest liczony przez ziarnistość liczby rund. Protokoły z tą samą bazą kryptograficzną zachowują się inaczej pod względem zaufania grupowego i siły zaufania dla różnych aplikacji i scenariuszy aplikacji. Najtrudniejsze do spełnienia są aplikacje o ograniczonej dynamice, ale dużej wrażliwości na uczestników o niskim zaufaniu, a także z wysokim prawdopodobieństwem uczestnika o niskim poziomie zaufania, takich jak spotkania zarządu. Rzeczywista aplikacja tego rodzaju musiałaby prawdopodobnie korzystać z kosztownego protokołu wymagającego dużej mocy obliczeniowej, takiego jak STW, aby spełnić wymagania dotyczące poufności i zachować GTS.

Aplikacje z możliwie dużą liczbą uczestników, takie jak czasopismo prenumerowane, z których wiele prawdopodobnie mogłoby uzyskać spadek w wynikach zaufania, również jest trudne do spełnienia. Duża liczba uczestników zmniejsza siłę zaufania. Protokoły, w których jeden członek o niskim poziomie zaufania może znacząco obniżyć GTS, nie byłyby odpowiednie do takich zastosowań. Można jednak używać protokołów z wyższymi GTS, a złożoność kluczowych obliczeń nie jest decydującym czynnikiem. Aplikacje z niskim prawdopodobieństwem członków o niskim poziomie zaufania, takie jak tablice interaktywne, są łatwiejsze do spełnienia, mimo że wymagają ponownego przeliczenia kluczy. Można również stosować protokoły o niskim poziomie zaufania, ponieważ prawdopodobieństwo pozyskania członków o niskim poziomie zaufania jest niskie. Analiza ta wysuwa na pierwszy plan, że przy projektowaniu aplikacji kryterium wyboru protokołów GKA do wykorzystania w aplikacji nie powinna być technika kryptograficzna, ani też złożoność obliczeniowa kluczy czy sama liczba rund. Wybór powinien wynikać z systemowej oceny wymagań aplikacji i scenariusza oraz obliczenia siły zaufania. ITS potencjalnych użytkowników powinny być używane, w połączeniu z różnymi protokołami GKA dostępnymi w literaturze, do obliczania DPFS i GTS przy użyciu każdego protokołu. Algorytm zaproponowany w tej strukturze w połączeniu z narzędziami takimi jak Athena mógłby zostać użyty do tego celu. Obliczona siła zaufania wskazywałaby odpowiedni protokół dla scenariusza. Wybrany protokół powinien spełniać wymagania obliczeniowe i ograniczenia zasobów wynikające z domeny aplikacji i ograniczeń zasobów. Procedura obliczania ITS i statystyczne podejście do przybliżania ITS w czasie projektowania aplikacji to tematy do dalszych badań.

Zaufanie w Cyberspace : Protokół A-GDH.2

Protokół A-GDH.2 to protokół GKA, który zapewnia doskonałą poufność przekazywania, pod warunkiem, że klucze krótkoterminowe zostaną wyraźnie usunięte. Wymaga n rund i dlatego nie jest zalecany do zastosowań związanych z tablicami interaktywnymi i salami konferencyjnymi, gdzie wymagane są częste kluczowe obliczenia. Jednak w przypadku subskrybowanego czasopisma jest to zalecane, ponieważ prawdopodobieństwo utraty klucza (tj. Niskiego ITS) ważnego członka jest niskie, w przeciwnym razie klucz zostanie skompromitowany tylko wtedy, gdy zostaną naruszone klucze dwóch członków (dwóch członków ma niskie zaufanie wyniki).

Zaufanie w Cyberspace : Protokół Boyda-Nieto

Protokół BN to protokół GKA, który działa w jednej rundzie, a zatem jest wydajny obliczeniowo. Wcześniej widzieliśmy, że protokół nie spełniał częściowej tajemnicy przekazywania. Jeśli istnieje prawdopodobieństwo pn, że tajny N1 zostanie złamany, to DPFS będzie miał wartość pn. Jeśli pn jest bardzo niskie, z powodu czynników zewnętrznych, takich jak kwestie polityki, które uniemożliwiają kontrolerowi grupy stanie się nieszczelnym uczestnikiem, wówczas klucze prywatne innych uczestników staną się wrażliwymi punktami, które należy wziąć pod uwagę. Załóżmy, że penetrator zna klucz prywatny dowolnego uczestnika innego niż kontroler grupy, K(i) – 1, z prawdopodobieństwem p. Wtedy byłby w stanie wydedukować nonce N1 z prawdopodobieństwem p. Ponieważ istnieje n – 1 takich przypadków, a znajomość przynajmniej jednego Ki-1 ujawniłaby N1, prawdopodobieństwo nieujawnienia klucza sesji wynosi 1- (1 – p)n -1. Stopień częściowej poufności przekazywania protokołu BN jest zatem obliczany jako (1- ( – p)n-1, pn) . Ponieważ kontroler grupy byłby wysoce zaufanym członkiem, prawdopodobieństwo utraty N1 byłoby małe . Jednak zależność od utraty sekretu tylko jednego członka sprawia, że ​​jest on nieodpowiedni dla subskrybowanego typu dziennika aplikacji. Zalecany do tablic interaktywnych, gdzie prawdopodobieństwo nieszczelności elementu jest mniejsze, a wydajność obliczeniowa ze względu na niskie p jest użyteczną właściwością ze względu na częste obliczenia kluczowe. W przypadku spotkań zarządu protokół jest słabo zalecany ze względu na niskie p, pomimo niskiej siły zaufania