Wszechobecna informatyka
Wszechobecne obliczenia lub wszechobecne obliczenia są używane zamiennie do oznaczania wykorzystania technologii komputerowych i urządzeń w codziennym życiu człowieka. Jego podstawową ideą jest uczynienie technologii łatwo dostępnej dla ludzi, a nie zmuszanie ich do dostosowania się do postępu technologicznego. Dziedzina ta wywodzi się zasadniczo z pola interakcji człowiek-komputer (HCI), które następnie uzyskało wsparcie z innych dziedzin, a złożony zestaw różnych innych obszarów przyczynił się do jego rozwoju. Jeśli urządzenia techniczne mieszają się ze zwykłym ludzkim życiem, zaufanie do obiektów w środowisku staje się kwestią najwyższej wagi. Takie zaufanie wśród elektronicznych /urządzenia techniczne można osiągnąć za pomocą systemów opartych na reputacji, jak omówiono wcześniej. Z drugiej strony bezpieczeństwo w przypadku wszechobecnej informatyki jest często tak trudne do zdefiniowania, jak jest w rzeczywistości; możliwe jest zapewnienie poczucia bezpieczeństwa w wszechobecnym środowisku komputerowym, ale ponieważ urządzenia mogą być różnych platform i funkcji, w rzeczywistości jest to skomplikowane zadanie, aby zapewnić odpowiednie bezpieczeństwo w wszechobecnej komunikacji.
Internet rzeczy i przyszłość Internetu
Internet rzeczy (IoT) to terminologia używana do unikalnych obiektów (lub rzeczy) i ich wirtualnych reprezentacji w strukturze podobnej do Internetu. Idea IoT uwzględnia to samo wszechobecne środowisko, co wszechobecne przetwarzanie. Podstawowa różnica między wszechobecną informatyką a IoT polega na tym, że gdy to samo ustawienie jest widziane z punktu widzenia konceptualnego, określa się je jako wszechobecne środowisko, ale patrząc pod kątem możliwych do zidentyfikowania obiektów biorących udział w systemie, nazywa się to IoT, Internet ,podobna sieć sieci. Ponieważ Internet przedmiotów i wszechobecne przetwarzanie danych zajmują się tym samym środowiskiem połączonych urządzeń (tj. różnego rodzaju urządzeń o różnej naturze i mocach obliczeniowych), zaufanie i bezpieczeństwo zarządzanie jest podobne do metod omówionych wcześniej. Oznacza to, że schemat opracowany dla wszechobecnego środowiska obliczeniowego może być również stosowany w większości przypadków do Internetu przedmiotów, gdy zajmowane jest zaufanie na poziomie urządzenia i bezpieczeństwo. Chociaż IoT został jasno zdefiniowany do tego czasu, Future Internet jest nadal niejasnym terminem. Przyszły Internet odnosi się zasadniczo do szerokiej gamy tematów badawczych związanych z ideą Internetu łączącego wiele urządzeń sieciowych na całym świecie. Jeśli pod koniec zostanie przedstawiony po prostu stosunkowo szybszy Internet z nowymi urządzeniami i technikami, może to być jedynie rozszerzenie obecnego Internetu. Podstawową wizją Internetu przyszłości jest jednak to, że nie jest to Internet, który widzieliśmy do tej pory; może mieć nowy sposób pracy, może mieć nową metodę łączenia urządzeń, a nawet może być kompletne podejście do rozwijania go. Ponieważ pełna definicja operacyjna nie została jeszcze sfinalizowana, zaufanie i bezpieczeństwo w Future Internet są również w fazie wstępnego badania i nie można ich wyraźnie opisać.
Bezprzewodowe sieci ad hoc i czujniki
Bezprzewodowa sieć ad hoc jest połączeniem węzłów obliczeniowych, które mogą komunikować się ze sobą bez obecności formalnej jednostki centralnej (bez infrastruktury lub półinfrastruktury) i mogą być tworzone w dowolnym miejscu i czasie. Każdy węzeł w sieci ad hoc może pełnić rolę hosta i urządzenia podobnego do routera w sieci. Mogą istnieć różne formy sieci ad hoc, takie jak mobilne sieci ad hoc (MANET), samochodowe sieci ad hoc (VANET), bezprzewodowe sieci kratowe (WMN), bezprzewodowe sieci czujników (WSN), sieci obszaru ciała (BAN), obszar osobisty sieci (PAN), itp. Chociaż wszystkie z nich zawierają pewne wspólne cechy technologii ad hoc, WSN jest siecią, o której warto wspomnieć, zwłaszcza, że ten typ sieci ma dodatkową funkcję, która może mieć stację bazową, taką jak stała centrala jednostka do przetwarzania pakietów sieciowych i wszystkich innych węzłów czujnikowych w sieci mogłaby zostać wdrożona d hoc. Podstawowe cechy sieci ad hoc wymagają zaufania do inicjowania procesu komunikacji. W większości przypadków potrzebny jest pewien rodzaj przyjętego modelu, aby wprowadzić pojęcie wiary i zapewnić dynamiczną miarę wiarygodności i wiarygodności w scenariuszu ad hoc. Pomimo dodatkowej przewagi pewnego rodzaju centralnego organu w WSN (gdzie każdy uczestniczący podmiot nie jest zbyt rozproszony, jak czyste sieci ad hoc), prace badawcze związane z zaufaniem nadal wymagają konkretnych osiągnięć, aby osiągnąć zadowalający poziom. Jeśli chodzi o bezpieczeństwo, istnieją setki prac nad zarządzaniem kluczami, bezpiecznym routingiem, usługami bezpieczeństwa i systemami wykrywania włamań dla dowolnej sieci ad hoc
Chmura obliczeniowa
Przetwarzanie w chmurze to niedawno ukuty termin, w którym przetwarzanie rozproszone jest postrzegane z perspektywy świadczenia „usługi obliczeniowej”. Podstawową koncepcją przetwarzania w chmurze jest płatność oparta na wykorzystaniu zasobów i zasobach IT, które nie istnieją u użytkowników. koniec. Strategia ta umożliwia użytkownikom wykonywanie zadań za pomocą urządzeń komputerowych o ograniczonych zasobach, których wcześniej nie mogli wykonać. Aby wspierać takie rodzaje komunikacji i komputerów, istnieje wiele problemów badawczych, które należy rozważyć, aby zasoby były zarządzane w sposób wydajny i bezpieczny. W rzeczywistości dynamika usług, elastyczność i wybory oferowane przez tę wysoce skalowalną technologię są bardzo atrakcyjne dla różnych przedsiębiorstw. Te możliwości stwarzają jednak wiele wyzwań związanych z zaufaniem i bezpieczeństwem. Przetwarzanie w chmurze otworzyło nowe granice wyzwań, wprowadzając inny typ scenariusza zaufania, w którym technologia potrzebuje podstawowego zaufania uczestniczących podmiotów do rozpoczęcia funkcjonowania. Podczas gdy zaufanie może nadal być istotne dla koncepcji chmury, bezpieczeństwo stawia poważną trudność, na przykład, gdy bierze się pod uwagę uwierzytelnianie. Idea przetwarzania w chmurze polega na zachowaniu tożsamości dostawców usług w stanie pochmurnym, ale uwierzytelnienie, jako część bezpieczeństwa, wymagałoby prawidłowej identyfikacji obiektów, aby można było również zapewnić własność niezaprzeczalności. Niezaprzeczalność, w prostym znaczeniu, oznacza możliwość zapewnienia, że strona w umowie lub zdarzeniu komunikacyjnym nie może zaprzeczyć autentyczności własnych wiadomości, pakietów, podpisu lub innego rodzaju dokumentu, który generuje. Te sprzeczne zasady sprawiły, że bezpieczeństwo przetwarzania w chmurze nadal stanowi bardzo trudny obszar badań. Jednym z możliwych rozwiązań jest utrzymanie pewnego rodzaju zaufanego dostawcy usług i korzystanie z nich przez zaufany serwer dostarczający usługi lub menedżera usług. Inną kwestią w tej dziedzinie jest to, jak długo należy utrzymywać ustalone zaufanie lub jak je zburzyć, zachowując nienaruszoną koncepcję chmury? (Oznacza to, że klienci nie wiedzą dokładnie, w których lokalizacjach otrzymują wymagane usługi lub w jaki sposób ich żądania zostały przetworzone.) W rzeczywistości jest to obszar, w którym zaufanie i bezpieczeństwo są ze sobą powiązane. Elementy przetwarzania w chmurze łączą się również z pojęciem Internetu przyszłości, co prowadzi do koncepcji sieci w chmurze. Stąd też postęp w dziedzinie zaufania i bezpieczeństwa w cloud computing może również przyczynić się do tych samych obszarów w przyszłości Internetu.
Sieci konwergentne nowej generacji
Zanim określimy relację między zaufaniem a bezpieczeństwem, przypomnijmy podstawową różnicę między dwoma terminami hybrydowymi i zbieżnymi. Chociaż niektóre obszary badań można podzielić na więcej podobszarów i tematów, wśród naukowców istnieje tendencja do myślenia o łączeniu różnych technologii. Termin hybryda jest powszechnie stosowany w takich przypadkach. Często ludzie mówią o połączeniu struktury fizycznej lub różnych platform urządzeń, korzyści lub usług lub cech różnych technologii, aby uzyskać system hybrydowy.
Jednak termin konwergencja sieci lub bardziej konkretnie konwergentna sieć wykracza poza pojęcie hybrydyzacji sieci lub sieci hybrydowej. W dziedzinie telekomunikacji konwergencja sieci odnosi się do świadczenia usług telefonicznych, wideo i transmisji danych w ramach jednej sieci. Tak więc, chociaż hybryda po prostu odnosi się do łączenia pozornie rozłącznych technologii / usług, konwergencja odnosi się do odpowiedniego mieszania i płynnej funkcjonalności wspólnego systemu. Dlatego sieć konwergentna wymaga jednej rury do dostarczania wszystkich form usług komunikacyjnych. Nie ma wątpliwości, że proces konwergencji sieci wynika przede wszystkim z rozwoju technologii i popytu. Jednym z głównych celów takiej integracji jest dostarczanie konsumentom lepszych usług i niższych cen. Zamiast płacić oddzielnie za każdą usługę lub technologię, użytkownicy mogą mieć dostęp do szerszego zakresu usług i wybierać spośród większej liczby dostawców usług, co uczyniłoby użytkowników głównymi beneficjentami, a także zapewniło zysk dostawcy. W rzeczywistości konwergencja umożliwia dostawcom usług przyjmowanie nowych modeli biznesowych, oferowanie innowacyjnych usług, korzystanie z ofert specjalnych i wchodzenie na nowe rynki. Inna definicja konwergencji sieci lub po prostu konwergencji może być podana jako szeroki termin używany do opisywania nowych technologii telekomunikacyjnych i architektury sieci wykorzystywanych do migracji wielu usług komunikacyjnych do jednej sieci. Oznacza to, że przyszłe sieci są również objęte tą koncepcją. W niektórych publikacjach formalna definicja sieci konwergentnej to: perspektywa ponadnarodowa, jak integracja i digitalizacja. Integracja jest tutaj definiowana jako proces pomiaru transformacji o stopień, w jakim różne media, takie jak telefon, transmisja danych i infrastruktura informatyczna, są połączone w jedną jednolitą platformę architektury sieci uniwersalnej. Cyfryzacja nie jest tak bardzo definiowana przez jej fizyczną infrastrukturę, jak przez treść lub medium. Czasami digitalizacja oznacza rozbijanie sygnałów na bajty składające się z zer i jedynek; to takie proste!
Aby rozwiązać ten problem i zrozumieć go z praktycznych perspektyw, możemy zauważyć, że podjęto wiele ostatnich inicjatyw, takich jak sieci nowej generacji (NGN) i podsystemy multimedialne IP (IMS), aby zapewnić bezproblemową architekturę dla różnych technologii dostępu, które harmonizują z cele określone przez konwergencję sieci. Oprócz innych innowacyjnych podejść, na przykład poprzez integrację różnych technologii – platform dostarczania usług (SDP) i IMS – możliwe jest teraz łatwe dostarczanie, wykonywanie i zarządzanie usługami. Inne problemy, takie jak komunikacja punkt-punkt i transmisja, usługi zorientowane na dane i multimedia, systemy mobilne i komórkowe oraz szybkie łącza światłowodowe i mobilność, pozostają trudnymi zadaniami i, co najmniej, obraz typu end-to-end to wciąż niejasne. Jak powinno do tego czasu, gdy pełny obraz nie jest jasny, ten sam rodzaj niepewności w określaniu granic zaufania i bezpieczeństwa pozostaje taki sam, jak w przypadku innych innowacyjnych technologii przedstawionych wcześniej.
Wnioski i otwarte problemy
W dzisiejszym świecie duże firmy, takie jak Amazon i eBay (lub podobne firmy) używają pewnego rodzaju systemu ratingowego, który opiera się na zaufaniu lub stanowi podstawę zaufania do produktów sprzedawanych przy użyciu tych kanałów. Bezpieczeństwo opiera się na zaufaniu i służy głównie do zezwalania na transakcje pieniężne. Zarządzanie zaufaniem w rzeczywistości jest złożoną mieszanką różnych dziedzin, jeśli weźmiemy pod uwagę technologie obliczeniowe i komunikacyjne razem. W tym rozdziale omówiono niektóre przyszłe technologie, ale istnieje wiele innych pojawiających się dziedzin, takich jak komunikacja bliskiego pola (NFC), elektroniczne zarządzanie wiedzą, sieci nanokomunikacyjne itp., Które również będą potrzebowały wsparcia zaufania i bezpieczeństwa. Naukowcy i praktycy z różnych dziedzin, takich jak sieci, sieci i przetwarzanie w chmurze, przetwarzanie rozproszone, systemy informacyjne, HCl i modelowanie ludzkich zachowań mogą być ofiarodawcami, a połączenie różnych dziedzin pod tym parasolem stanie się nieuniknione w nadchodzących dniach. Bez względu na postępy, jakie moglibyśmy osiągnąć w konkretnej skali w nadchodzących dniach, niektóre podstawowe pytania mogą wciąż pozostać takie, jak długo należy utrzymywać lub utrzymywać ustalone zaufanie w jakimkolwiek systemie komputerowym i komunikacyjnym? Jeśli potrzebne jest okresowe odświeżanie i ponowne ustanawianie zaufania, jaki może być optymalny interwał dla różnych ustawień? Czy okresowe przywracanie zaufania wpłynie na ustanowione bezpieczne kanały? Czy bezpieczeństwo będzie w stanie działać samodzielnie, gdy parametry zaufania zostaną całkowicie zignorowane? Nadal pozostaną główne pytania: czy w przyszłych technologiach innowacyjnych będą istniały wyraźne granice między zaufaniem a bezpieczeństwem, czy też należy uwzględnić zaufanie w granicach bezpieczeństwa?