Zaufanie w Cyberspace : Co to jest chmura obliczeniowa?

Chmura obliczeniowa

W przeszłości używaliśmy różnych technologii obliczeniowych, w tym obliczeń rozproszonych, obliczeń gridowych itp. Jedną z najnowszych technologii, która zapewnia zasoby obliczeniowe w bardziej skalowalnym, przyjaznym dla użytkownika modelu płatnym za użycie, jest dostępny na rynku i jest znany jako przetwarzanie w chmurze. Ta nowa usługa jest znana jako architektura nowej generacji dla przedsiębiorstw IT. Usługi przetwarzania w chmurze przyciągają klientów ze względu na ogromne korzyści, jakie zapewniają. Jest to skalowalne, wydajne i ekonomiczne rozwiązanie do przechowywania i przetwarzania danych, w którym użytkownicy przechowują swoje dane na serwerach pamięci masowej w chmurze rozproszonych w różnych lokalizacjach geograficznych, które są zarządzane centralnie przez dostawców usług w chmurze. Zasadniczo oznacza to, że „NIST definiuje przetwarzanie w chmurze jako model zapewniający dostęp sieciowy na żądanie do współdzielonych zasobów, które można konfigurować, alokować, zarządzać i wydawać przy minimalnym wysiłku i interakcji”.

Użytkownicy mogą korzystać ze znanego lub wyspecjalizowanego oprogramowania i aplikacji internetowych, zapotrzebowania na platformy do wykonywania swoich programów i ogólnie infrastruktury IT do obsługi całego zestawu operacji IT. Koncepcję przetwarzania w chmurze z zasobów IT można wynająć na wynajem, co pomaga zwiększyć wykorzystanie zasobów infrastruktury IT. Niektóre duże firmy informatyczne mają wolne zasoby, które pozostają niewykorzystane. Takie współdzielenie zasobów zwiększa wydajność infrastruktury fizycznej z wykorzystaniem technologii wirtualizacji, a zatem cloud computing zapewnia użytkownikom tanie rozwiązanie obliczeniowe i rozwiązanie do przechowywania danych. Zapewnia swoim użytkownikom i dostawcom wiele innych udogodnień, w tym dostęp zdalny i na żądanie, łatwiejsze zarządzanie, konserwację i alokację, a także skalowalność zasobów na żądanie.

Ciemna Strona Neta : W poszukiwaniu brakującego uchwytu

Jak dotąd większość decydentów decyduje się lunatykować po tym cyfrowym polu minowym, gwiżdżąc swoje ulubione cyberutopijne melodie i odmawiając konfrontacji ze wszystkimi dowodami. Mieli również ogromne szczęście, ponieważ miny  były bardzo rzadkie. Nie jest to już postawa, na którą mogą sobie już pozwolić, choćby dlatego, że miy są teraz prawie wszędzie, a dzięki rozwojowi Internetu ich siła wybuchowa jest znacznie większa i ma implikacje daleko wykraczające poza sferę cyfrową. Jak wskazali Shanthi Kalathil i Taylor Boas w Open Networks, Closed Regimes, ich pionierskim badaniu z 2003 r. dotyczącym wpływu Internetu sprzed Web 2.0 na autorytaryzm, „konwencjonalna mądrość stanowi część gestaltu, w którym formułowana jest polityka, a lepsze zrozumienie politycznych skutków Internetu powinno prowadzić do lepszej polityki ”. Odwrotność również jest prawdą: słabe zrozumienie prowadzi do złej polityki. Jeśli jedynym wnioskiem na temat potęgi Internetu, jaki zachodni politycy wyciągnęli z wydarzeń w Iranie, jest to, że tweety są dobre dla mobilizacji społecznej, to raczej nie przechytrzą autorytarnych przeciwników, którzy do tej pory wykazali się znacznie większą wyrafinowaniem w świecie online . Staje się jasne, że zrozumienie pełnego wpływu Internetu na demokratyzację państw autorytarnych wymagałoby czegoś więcej niż tylko patrzenia na tweety irańskiej młodzieży, ponieważ opowiadają one tylko jedną część historii. Zamiast tego należy podjąć o wiele bardziej dogłębną i złożoną analizę, która dotyczyłaby całości sił kształtowanych przez sieć. Wiele z obecnego dysonansu poznawczego jest dziełem dobroczyńców. Co zrobili źle? No cóż, być może błędem było traktowanie Internetu jako deterministycznej, jednokierunkowej siły dla globalnego wyzwolenia lub ucisku, kosmopolityzmu lub ksenofobii. Rzeczywistość jest taka, że ​​Internet umożliwi działanie wszystkich tych sił – a także wielu innych – jednocześnie. Ale jeśli chodzi o prawa internetu, to wszystko, co wiemy. Która z wielu sił wyzwolonych przez sieć zwycięży w danym kontekście społecznym i politycznym, nie da się powiedzieć bez uprzedniego dogłębnego teoretycznego zrozumienia tego kontekstu. Podobnie naiwne jest wierzyć, że tak wyrafinowana i wielofunkcyjna technologia, jak Internet, może przynieść identyczne wyniki – dobre lub złe – w krajach tak różnych, jak Białoruś, Birma, Kazachstan i Tunezja. Współczesne reżimy autorytarne są tak różnorodne, że warto sparafrazować Tołstoja: podczas gdy wszystkie wolne społeczeństwa są do siebie podobne, każde niewolne społeczeństwo jest na swój sposób niewolne. Statystycznie jest wysoce nieprawdopodobne, aby tak odmienne byty wszystkie zareagowałyby na tak potężny bodziec w ten sam sposób. Twierdzenie, że Internet doprowadziłby do podobnej zmiany – to znaczy demokratyzacji – w krajach takich jak Rosja i Chiny jest podobne do argumentowania, że ​​globalizacja również wywrze na nich taki sam wpływ; ponad dekadę nowego wieku takie deterministyczne twierdzenia wydają się wysoce podejrzane. Równie błędne jest założenie, że autorytaryzm opiera się na brutalności samej siły. Religia, kultura, historia i nacjonalizm są potężne , z Internetem lub bez niego, kształtowanie charakteru współczesnego autorytaryzmu w sposób, którego nikt jeszcze w pełni nie rozumie. W niektórych przypadkach podważają to; w wielu innych umożliwiają to. Każdy, kto wierzy w potęgę Internetu tak jak ja, powinien oprzeć się pokusie przyjęcia Internetocentryzmu i bezmyślnie założyć, że pod naciskiem technologii wszystkie te złożone siły będą ewoluować tylko w jednym kierunku, czyniąc współczesne autorytarne reżimy bardziej otwartymi , bardziej partycypacyjny, bardziej zdecentralizowany i przez cały czas bardziej sprzyjający demokracji. Internet ma znaczenie, ale po prostu nie wiemy, jakie to ma znaczenie. Fakt ten, paradoksalnie, tylko sprawia, że ​​ma to jeszcze większe znaczenie: koszty popełnienia błędu są ogromne. Oczywiste jest, że niewiele spostrzeżeń można uzyskać patrząc do wewnątrz – to znaczy próbując złamać logikę Internetu; jego logiki nigdy nie da się naprawdę zrozumieć poza kontekstem, w którym się objawia. Oczywiście taki brak pewności nie ułatwia promowania demokracji w erze cyfrowej. Ale przynajmniej pomogłoby, gdyby decydenci – i ogół społeczeństwa – uwolnili się od wszelkich intelektualnych przeszkód i uprzedzeń, które mogą wypaczyć ich myślenie i doprowadzić do utopijnego teoretyzowania, które ma niewielkie podstawy w rzeczywistości. Histeryczna reakcja na protesty w Iranie ujawniła, że ​​Zachodowi wyraźnie brakuje dobrej teorii roboczej na temat wpływu Internetu na autorytaryzm. To dlatego decydenci, desperacko próbując wyciągnąć choć trochę lekcji na temat technologii i demokratyzacji, poddają ostatnie wydarzenia, takie jak obalenie komunistycznych reżimów w Europie Wschodniej, dość pokręconej interpretacji. Niezależnie od teoretycznych zalet takich historycznych podobieństw, decydenci powinni pamiętać, że wszystkie ramy mają konsekwencje: jedna źle wybrana analogia historyczna, a cała wyprowadzona z niej strategia może pójść na marne. Niemniej jednak, chociaż może być niemożliwe stworzenie wielu możliwych do uogólnienia praw opisujących relacje między Internetem a reżimami politycznymi, decydenci nie powinni po prostu przestawać myśleć o tych kwestiach, zlecać szeregu dziesięcioletnich badań i czekać, aż będą dostępne wyniki. , To nie jest opłacalna opcja. Internet staje się coraz bardziej złożony, podobnie jak jego aplikacje – a reżimy autorytarne zwykle szybko z nich korzystają. Im dłuższe jest niezdecydowanie, tym większe są szanse, że niektóre z istniejących możliwości działania w Internecie wkrótce przestaną być dostępne. Nie można zaprzeczyć, że raz opanowany Internet mógłby być potężnym narzędziem w arsenale decydenta; w rzeczywistości, gdy takie mistrzostwo zostanie osiągnięte, niewdrożenie tego narzędzia z pewnością byłoby nieodpowiedzialne. Ale jak Langdon Winner, jeden z najbardziej sprytnych myślicieli o politycznych implikacjach współczesnej technologii, kiedyś zauważył, że „chociaż praktycznie nieograniczone możliwości, nasze technologie są narzędziami bez uchwytów”. Internet nie jest niestety wyjątkiem. Uchwyt, który zbyt pewni siebie decydenci czują w swoich rękach, jest tylko złudzeniem optycznym; ich jest fałszywe mistrzostwo. Nie wiedzą, jak wykorzystać moc Internetu, ani nie potrafią przewidzieć konsekwencji swoich działań. W międzyczasie wszystkie niezręczne chwile sumują się i, podobnie jak przypadku w Iranie, mają tragiczne konsekwencje. Większość zachodnich wysiłków, by wykorzystać Internet w walce z autorytaryzmem, można najlepiej opisać jako próby zastosowania złego lekarstwa na niewłaściwą chorobę. Decydenci mają niewielką kontrolę nad swoim lekarstwem, które mutuje każdego dnia, więc nigdy nie działa tak, jak tego oczekują. (Brak uchwytu też nie pomaga.) Część dotycząca choroby jest jeszcze bardziej dokuczliwa. Autorytaryzm, z którym naprawdę chcą walczyć, wygasł w 1989 r. Jednak dziś nie ma 1989 r. I im szybciej decydenci zdadzą sobie z tego sprawę, tym szybciej będą mogli zacząć tworzyć Internet

polityki lepiej dostosowane do współczesnego świata. Zaletą jest to, że nawet narzędzia bez uchwytów mogą mieć ograniczone zastosowanie w każdym gospodarstwie domowym. Trzeba tylko traktować je jako takie i szukać kontekstów, w których są potrzebne. Należy przynajmniej upewnić się, że takie narzędzia nie skrzywdzą nikogo, kto próbuje ich używać z założeniem nieuniknionego mistrzostwa. Dopóki decydenci nie pogodzą się z faktem, że ich kłopoty w Internecie wynikają z tak bardzo niepewnej dynamiki, nigdy nie uda im się wykorzystać ogromnego potencjału sieci.

Audyt Umysłu Hackera : Charakterystyki cyberprzestępców

Charakterystyki cyberprzestępców można podzielić na dwie kategorie:

* Te, które mają charakter całkowicie teoretyczny (takie jak charakterystyka ryzyka, jakie określony, teoretyczny podzbiór przeciwników może stanowić dla danego zasobu)

* Charakterystyka powypadkowa lub kryminalistyczna, gdzie zagrożenie, jakie „prawdziwa” scharakteryzowana osoba może stanowić dla danego zasobu, z wykorzystaniem informacji dostępnych dopiero po wystąpieniu incydentu (takich jak dane dotyczące wykrywania włamań)

Chociaż ta definicja może wydawać się dość jasna, w momencie, gdy zaczniesz wprowadzać którykolwiek z typów charakterystyk w praktyce, granica między nimi staje się nieco rozmyta. Wynika to przede wszystkim z charakterystyki zdolności rzeczywistych (żyjących, oddychających) cyberprzestępców, którzy często są w dużym stopniu zależni od prognozowanych (zakładanych) zmiennych danych, a tym samym metryk teoretycznych. i stworzenie jasnego obrazu tego, jak naprawdę „wygląda” twój przeciwnik, jest po prostu niewykonalne. Podobnie, teoretyczne metryki charakteryzujące, które w dużej mierze opierają się na danych ilościowych, nigdy nie mogą być dokładne bez uprzedniego rozważenia „prawdziwych” studiów przypadków (rzeczywistych cyberprzestępców), z których należy wyprowadzić dane ilościowe. Duża część teorii charakteryzacji przeciwnika jest zatem zależna od następujących elementów:

* Dokonywanie dokładnych prognoz dotyczących tego, jakie mogą być wartości nieobserwowalnych zmiennych, przy użyciu wektorów pochodzących z dostępnych / obserwowalnych danych.

* Możliwość potwierdzenia dokładności ostatecznej charakterystyki poprzez analizę sprawdzonych zależności pomiędzy wykorzystywanymi metrykami

Przyjmując te stwierdzenia, musimy zatem zaakceptować, że istnieje potrzeba zestawu metryk (lub miar) charakteryzacji teoretycznych, które można w jakiś sposób przypisać zachowaniom (lub właściwościom) kontradyktoryjnym, a ostatecznie atakowi. W końcu właściwości przeciwnika są tym, co nas naprawdę interesuje. Metryki charakteryzujące, których używamy, są po prostu sposobem przetwarzania często jakościowych danych w ilościową, znaczącą formę i są funkcją ostatecznej charakterystyki. W ten sam sposób, w jaki nigdy nie moglibyśmy zrozumieć składu złożonych cząsteczek bez podstawowej znajomości tabeli pierwiastków, podstaw nauki atomowej i wzorów, których używamy do wyjaśnienia, jak powstają złożone cząsteczki, nigdy nie moglibyśmy zrozumieć dzisiejszego cyberprzestępcy i jego reaktywność z danym elementem (aktywem lub celem); bez podstawowej wiedzy na temat pierwiastków (właściwości przeciwnika), które tworzą złożone molekuły, które są cyberprzestępcami. aby pójść o krok dalej, podobnie jak możliwa liczba konstruktów molekularnych w naszym wszechświecie, liczba cyberprzestępców i typów ludzi na świecie jest nieskończona. Z tego samego powodu, że nie możemy liczyć na wyliczenie każdej cząsteczki, która kiedykolwiek istniała lub kiedykolwiek istniała, nie możemy też liczyć na wyliczenie każdego cyberprzestępcy, który kiedykolwiek istniał i będzie istniał. Ale czy to naprawdę problem? Weź pod uwagę, że w ten sam sposób, w jaki zdobywamy zrozumienie układu okresowego pierwiastków (naszych przeciwstawnych właściwości) i sposobów, w jakie te elementy oddziałują ze sobą, możemy przewidzieć zachowania i stan dowolnej konfiguracji właściwości przeciwnika. W tym celu jesteśmy w stanie przewidzieć najbardziej prawdopodobne wartości nieznanych zmiennych kontradyktoryjnych w przypadkach, gdy nie wszystkie niezbędne dane są obserwowalne. Pomijając analogie, zacznijmy od przyjrzenia się obserwowalnym właściwościom (lub elementom) cyberprzestępcy i sposobom, w jaki wpływają one na ostateczną charakterystykę.

TOR : Zalety i wady przeglądarki TOR

Oto najbardziej niezwykłe zalety i wady związane z używaniem TOR do nawigacji.

Zalety TOR

* Najbardziej niezawodne funkcje anonimowości. To świetna sieć, w której Twój identyfikator jest ukrywany w większości zastosowań i normalnych czynnościach w sieci; na przykład po prostu przeglądając wiadomości bez pozostawiania śladów.

* Dostęp do Deep Web (lub Dark Web). Soczysta, ale niebezpieczna strefa internetu. To „miejsce” nie jest objęte wyszukiwarkami – stąd jest po omacku. Ponadto w tej internetowej „czarnej dziurze” mają miejsce nielegalne działania. Powinieneś bardzo uważać na to, co robisz i gdzie surfujesz w tym miejscu – w przeciwnym razie możesz mieć problemy z władzami.

* Większość początkujących „hakerów” Cię nie zauważy. TOR natychmiast zapewnia niezawodną ochronę przed tymi, którzy widzieli zbyt wiele seriali lub filmów o hakowaniu. Nie dotkną cię, ALE prawdziwy haker może to zrobić. Więc nie myśl, że jesteś w 100% bezpieczny.

*Więcej. TOR ustanawia standard przeglądania prywatnego, jest przenośny, dostęp jest ukryty za pośrednictwem witryn .onion.

Wady TOR

* Wydajność nie jest dla wybrednych. Chociaż wydajność poprawiła się w ciągu ostatnich kilku lat; nie przypomina to normalnego przeglądania. Jednak musi być cena za takie dodatkowa warstwa anonimowości, nie sądzisz?

* Nie jesteś w 100% bezpieczny ani niewidoczny. Władze cię obserwują. Nie zapomnij tego. NSA i FBI bardzo poważnie traktują tę anonimową działalność. Jeśli zbyt często lub przypadkowo trafisz na nielegalne witryny internetowe w Dark Web; znajdą cię. Unikaj ich za wszelką cenę. Nie bój się jednak, jeśli popełnisz błąd (np. Przypadkowo wejdziesz na nielegalną stronę internetową) i działasz poprawnie (A. Natychmiastowe wyjście lub B. Zgłoś stronę), po Twojej stronie nie będzie już więcej problemu. Nie ma też nic do ukrycia. Oczywiście mogą zadać ci kilka pytań. Parafrazując starego wuja Bena „wielka moc wymaga wielkiej odpowiedzialności”. Tak więc, jako obywatel zawsze wybierasz, czy postępujesz właściwie.

*Reputacja. Wszystkie poprzednie problemy z władzami związane z nadużyciem TOR prowadzą nas do tego punktu. Niestety społeczność TOR ma na odwrocie żniwo. Jednak jest to miecz obosieczny; stał się bardzo popularny wśród dziennikarzy i aktywistów na całym świecie. Zawsze jest miejsce na cenny wkład z wykorzystania TZW.

*Małe opóźnienia. To naprawdę częsty problem w sieci TOR. Więc, lepiej bądź cierpliwy. Ten, kto jest cierpliwy, znajdzie to, czego szuka.

Lean Customer Development : Jak poprawiamy nasze szanse?

Po części zwiększamy nasze szanse, przyjmując ideę, że tworzenie produktów to systematyczny, powtarzalny proces. Istnieją narzędzia, których możesz użyć, niezależnie od wielkości, dojrzałości lub branży firmy, aby zwiększyć swoje szanse na sukces. Rozwój klienta jest jednym z takich narzędzi. Ćwicząc rozwój klienta jako równoległy proces w połączeniu z rozwojem produktu, możesz znacznie zmaksymalizować swoją naukę i zmniejszyć ryzyko. Diagram po lewej stronie rysunku to pętla sprzężenia zwrotnego Build-Measure-Learn.

Ma na celu opisanie, w jaki sposób Twoja organizacja powinna nieustannie się uczyć i dostosowywać w oparciu o nowe informacje, które uzyskujesz podczas pomiaru wyników i uczenia się od klientów. Schemat po prawej stronie, pętla Think-Make-Check, jest odmianą wymyśloną przez CEO LUXr Janice Fraser.

Co za różnica? To tylko punkt wyjścia. Nie musisz zaczynać od fazy tworzenia – w rzeczywistości robienie tego jest często kosztownym sposobem eksperymentowania. Rozwój klienta jest ważną częścią fazy Think. Pozwala na eksplorację i iterację w najtańszej fazie rozwoju – przed napisaniem kodu lub utworzeniem makiet. Rozwój klienta dostarcza informacji niezbędnych do zbudowania najlepszego możliwego pierwszego przypuszczenia, które następnie zweryfikujesz. Mówiłem o tym, żeby dowiedzieć się więcej i zmniejszyć ryzyko – to cenne korzyści, ale nie wydają się zbyt namacalne. Co jeszcze zyskasz ćwicząc rozwój klienta?

  • Uzyskasz bogatszy obraz swojego klienta i konkurencji (nie tylko firmy i produkty, ale także utrwalone nawyki i procedury)
  • Odkryjesz nowe możliwości zróżnicowania
  • Zmniejszysz ilość produktu, który musisz zbudować

Tak, zgadza się: prawie na pewno skończysz pisać mniej kodu! To konsekwentna korzyść, którą słyszałem od zespołów programistów: możliwość jeszcze mniejszego minimalnego opłacalnego produktu (MVP). Rozmawiając z klientami, często przekonasz się, że klienci naprawdę chcą tylko dwóch z pięciu funkcji, o których myślisz, że potrzebujesz (i mogą chcieć jeszcze jednej, o której nie pomyślałeś).

Wszystko, co wiesz, jest złe

Cóż, niezupełnie. Ale jako ludzie podlegamy wielu błędom poznawczym: nasze mózgi idą na skróty, które uniemożliwiają nam postrzeganie świata takim, jakim jest naprawdę. Zwykle działamy tak, jakbyśmy zwykle mieli rację, i interpretujemy neutralne lub niejednoznaczne dowody jako wspierające nasze przekonania, a nie kwestionujące je. Nazywa się to błędem potwierdzającym i jest odpowiedzialne za ogromny procent awarii produktów. Błąd potwierdzający to nasza wrodzona skłonność do zwracania większej uwagi na informacje, które potwierdzają nasze przekonania. Jest bardziej prawdopodobne, że ignorujemy lub bagatelizujemy fakty, które są sprzeczne z naszymi przekonaniami, lub interpretujemy subiektywne informacje w sposób sprzyjający temu, w co chcemy wierzyć. Nie robimy tego, ponieważ jesteśmy złymi lub egoistycznymi ludźmi; to jest to, co nasze mózgi naturalnie chcą robić. Niestety prowadzi nas to do subtelnego sabotowania siebie: ignorowania osoby, której opinia jest sprzeczna z jednym z naszych głównych założeń lub odrzucania osoby jako głupiego użytkownika, ponieważ nie rozumie lub nie ceni naszego produktu. Pokonanie uprzedzeń poznawczych jest trudne. Pomocne jest po prostu zapisywanie rzeczy. Dzięki obiektywnemu dokumentowaniu naszych założeń, a także informacji, które otrzymujemy od klientów, łatwiej jest dostrzec rozbieżności i zauważyć, kiedy dowody dowodzą, że się mylimy

Ile Google wie o Tobie : Trend z dala od pulpitu

Problem ujawniania informacji przez Internet jest potęgowany przez ogólną tendencję do odchodzenia od aplikacji desktopowych na rzecz aplikacji internetowych. W pierwszych dziesięcioleciach rewolucji komputerów osobistych poszczególne komputery stają się coraz bardziej wydajne, zarówno pod względem surowej mocy obliczeniowej, jak i miejsca na dysku twardym. Z drugiej strony dostęp do sieci był powolny lub nie istniał. W rezultacie królowały aplikacje desktopowe. Być może najlepszym przykładem jest pakiet Microsoft Office działający w systemie Microsoft Windows. Powstanie sieci World Wide Web w połączeniu z łatwym dostępem do zawsze działającego szybkiego Internetu zmieniło krajobraz. Użytkownicy nie są już przywiązani do dużych aplikacji komputerowych i monolitycznych systemów operacyjnych. Dobrze zaprojektowane aplikacje internetowe zaczynają teraz zastępować swoje odpowiedniki na PC. Widzimy teraz wczesne dudnienia tego trendu. Firma Google opracowała lub nabyła internetowe zamienniki oprogramowania do edycji tekstu, poczty e-mail, kalendarzy, arkuszy kalkulacyjnych i prezentacji. Dodatkową korzyścią jest to, że tacy użytkownicy mogą uzyskać dostęp do swoich danych z dowolnego miejsca na świecie. Do pracy potrzebują tylko przeglądarki i połączenia internetowego. Przeglądarki istnieją dla wszystkich głównych systemów operacyjnych, więc staje się coraz bardziej zablokowane w danym systemie operacyjnym coraz bardziej nieistotne. Chociaż w przypadku aplikacji komputerowych aktualizacje zwykle występują rzadko, scentralizowane aplikacje internetowe mogą być aktualizowane w sposób ciągły. Jedną z największych przeszkód we wdrażaniu aplikacji internetowych jest konieczność zapewnienia wyjątkowo niezawodnej łączności sieciowej, która jeszcze nie została osiągnięta, ale z każdym dniem staje się coraz bardziej rzeczywistością. Kolejnym poważnym problemem jest bezpieczeństwo. Umieszczając aplikacje i ich pliki danych na scentralizowanych serwerach, tracimy kontrolę nad naszymi danymi. Krytyczne informacje, które kiedyś były bezpiecznie przechowywane na naszych komputerach osobistych, obecnie znajdują się na serwerach firm internetowych. W przeszłości posiadaliśmy całą aplikację na naszych maszynach i mogliśmy z niej korzystać tak długo, jak chcieliśmy. Dzięki aplikacjom internetowym możemy narazić się na ryzyko zarówno dostępu do aplikacji, jak i naszych danych, oddając je w ręce osoby trzeciej.

Zaufanie w Cyberspace : Chmura obliczeniowa: problemy z zaufaniem, wyzwania i rozwiązania

Co to jest zaufanie?

Definiowanie zaufania

Istnieje wiele definicji zaufania; jednak wymieniliśmy niektóre z ważnych, które są następujące:

Jest to odsetek, w jakim jedna strona spełnia oczekiwania drugiej strony.

Jest to stopień, w jakim pierwsza strona zachowuje się dokładnie tak, jak oczekiwano od drugiej. Jeśli stopień jest wysoki, reprezentuje

większe zaufanie do pierwszej strony przez drugą. W dziedzinie bezpieczeństwa zaufanie działa jako ważny parametr określający model zagrożenia systemu.

Jest reprezentowany w postaci modelu zaufania. Można to również określić jako zaufanie.

Zwykle jest to relacja binarna między dwoma podmiotami. Ustala się ją między dwoma podmiotami na podstawie pewnych wspólnych atrybutów, w odniesieniu do których analizuje się i mierzy zaufanie.

Modelowanie zaufania

Modelowanie zaufania to technika używana do oceny zaufania systemu. Modelowanie zaufania identyfikuje problemy, które mogą wpływać na zaufanie systemu, i pomaga w identyfikacji punktów, w których niski stopień zaufania może obniżyć użyteczność systemu. Pomaga zidentyfikować środki, które można zastosować w systemie, aby uczynić go bardziej godnym zaufania dla użytkowników końcowych.

Możemy uogólnić koncepcję modelowania zaufania, biorąc pod uwagę przykład. Weźmy na przykład uniwersytet przekazujący końcowe prace egzaminacyjne do stowarzyszonej z nią uczelni. Uniwersytet ustanowił nowy program, w którym przesyłają arkusze egzaminacyjne do kolegiów za pośrednictwem zwykłego systemu komunikacji e-mailowej. Praca z danego przedmiotu jest wysyłana wraz z odpowiednimi identyfikatorami, które są następnie odbierane na drugim końcu i drukowane dzień przed egzaminem końcowym. Dwie strony komunikują się ze sobą za pośrednictwem podstawowego systemu dostarczania poczty e-mail. Uniwersytet i kolegia dysponują wystarczającymi technikami bezpieczeństwa, aby zapewnić, że uczelnia wydrukuje tylko te dokumenty egzaminacyjne, które są wysyłane z uniwersytetu, bez wycieku informacji. Cały system jest uzależniony od zaufania do systemu dostarczania poczty elektronicznej (dostawcy usług pocztowych). System komunikacji e-mail, który zachowuje się zgodnie z oczekiwaniami uniwersytetu (terminowe dostarczanie wiadomości i brak fałszowania, fałszowania lub wycieku informacji) będzie miał większe zaufanie w porównaniu z innymi systemami dostarczania poczty e-mail, które nie mogą zapewnić oczekiwanych usług. Stąd w tym przypadku atrybuty, na podstawie których można analizować zaufanie dostawcy usług e-mail, są następujące:

  1. Wyciek informacji
  2. Terminowe dostarczenie wiadomości
  3. Dostępność schematów fałszowania i wykrywania oszustw
  4. Integralność wiadomości

Jeśli jakiś system dostarczania poczty e-mail może zapewnić uniwersytet o tych oczekiwanych behawioralnych atrybutach usług, uniwersytet będzie miał większe zaufanie do dostawcy, a tym samym będzie miał większe zaufanie do świadczonych przez siebie usług. Ale pytania są następujące: W jaki sposób zapewnienie oczekiwanych usług jest spełnione przez dostawcę? W jaki sposób dostawca upewni się, że arkusze egzaminacyjne dotrą do uczelni zgodnie z oczekiwaniami? W jaki sposób wyprzedzi wszystkie inne konkurencyjne systemy dostarczania poczty, aby uzyskać ofertę od uniwersytetu? Osiąga się to poprzez zrozumienie wymagań zaufania dla systemu. Spełniając niezbędne atrybuty systemów w znany i standardowy sposób oraz przy użyciu zaawansowanych technologii i projektów architektonicznych, system zyska cenne zaufanie klienta. Na przykład, teraz w tym przypadku, jeśli system dostarczania poczty może udowodnić uniwersytetowi, że używa 256-bitowego połączenia SSL (Secure Sockets Layer) do szyfrowanej komunikacji wiadomości i nie przechowuje żadnej części wiadomości w postaci zwykłego tekstu uczelnia może zapewnić, że nie dojdzie do wycieku informacji, ponieważ dane są silnie zaszyfrowane. System poczty e-mail może również pokazać, że dołącza skrót wiadomości i sprawdza go na drugim końcu; w związku z tym nie można fałszować danych i dlatego mają mechanizmy zapewniające integralność wiadomości. Można również wykazać, że używają one uwierzytelniania protokołu SMTP (Simple Mail Transfer Protocol) i mogą zidentyfikować każdą sfałszowaną komunikację przechodzącą z innych stron. Terminowość można zapewnić, wysyłając wiadomość e-mail o niepowodzeniu w ciągu kilku minut po niepowodzeniu wysłania wiadomości, aby uczelnia mogła podjąć odpowiednie działania w celu dostarczenia dokumentów egzaminacyjnych w odpowiednim czasie, zamiast zakładać, że dotarły one bezpiecznie do dodbiorcy. Zaufanie jest definiowane hierarchicznie w każdym systemie. Jednak zaufanie do podmiotu zewnętrznego, który jest medium komunikacji e-mailowej, jest mniejsze, ale nawet duże zaufanie do podmiotu zewnętrznego nie oznacza, że ​​cały system jest całkowicie bezpieczny. Na przykład to uczelnia jest odpowiedzialna za to, aby osoby odpowiedzialne za przesyłanie odpowiednich dokumentów egzaminacyjnych za pośrednictwem zaufanego środka komunikacji e-mail. Ponieważ osoby odpowiedzialne za przesłanie poprawnych prac egzaminacyjnych są wewnętrznymi uczelniami, mają większy poziom zaufania w porównaniu z podmiotem, którego usługi są wykorzystywane zewnętrznie do wykonania usługi. W związku z tym poziom zaufania systemu do różnych podmiotów różni się w zależności od podmiotu, jego typu i oceny ich oczekiwanego zachowania. Następne pytania, które przychodzą na myśl, to: Dlaczego zależy nam na zaufaniu? Jaka jest rola zaufania i model zaufania, o którym mówimy? Dlaczego oceniamy zaufanie i jaka pomoc będzie dla nas w określaniu aspektów bezpieczeństwa systemu? Ocena zaufania pomaga w opracowaniu modelu zaufania, który reprezentuje hierarchiczne zaufanie do różnych elementów systemu. Model zaufania identyfikuje różne obszary systemu oraz zaufanie, jakiego jednostka oczekuje od innych podmiotów. Ocena tego modelu zaufania pomaga w określeniu zaufania do jednostek systemu. Model zaufania reprezentuje te główne obszary systemu, w których w przypadku utraty zaufania system byłby podatny na szereg zagrożeń. Na przykład, model zaufania systemu omówiony powyżej będzie opisywał zewnętrznego dostawcę usług e-mail, aby zapewnić wyższy poziom zaufania dla całego systemu, aby utrzymać się i zachowywać tak, jak powinien. Jeśli jednostki mają do siebie większe zaufanie i jeśli go przestrzegają, system ma działać w najlepszy możliwy sposób. Omawiany przez nas przykład służy do szybkiego opisu zaufania i jego znaczenia. Przez jednostki będziemy odnosić się do dostawców, użytkowników lub systemów obliczeniowych i podsystemów w oparciu o kontekst. Naszym głównym celem będzie rozważenie aspektów przetwarzania w chmurze i zidentyfikowanie potrzeby zaufania do niej. Omówimy również to, co zostało zrobione i co pozostało do zrobienia.

Ciemna Strona Neta : Dlaczego hipsterzy dokonują lepszych rewolucji?

W przypadku Iranu zachodni decydenci nie tylko źle odczytali Internet, ale także chwalili się swoją ignorancją każdemu, kto chciał słuchać. Ku ich zaskoczeniu, irański rząd uwierzył w ich blef i podjął agresywne środki zaradcze, znacznie utrudniając pracę polegającą na wykorzystywaniu Internetu do wspierania społecznych i politycznych zmian w Iranie i innych zamkniętych społeczeństwach. Możliwości sprzed trzech lat, kiedy rządy wciąż uważały, że blogerzy to tylko hipsterzy, zabawni, ale ostatecznie odrzuceni jako poważny ruch polityczny, nie są już dostępni. Blogerzy, którzy nie są już postrzegani jako modne obiboki, są postrzegani jako nowi działacze Solidarności – jest to nazbyt idealistyczna i prawdopodobnie błędna charakterystyka podzielana zarówno przez demokratyczne, jak i autorytarne rządy. Co najbardziej niepokojące, działa tutaj niebezpieczna samozapierająca się przepowiednia: im więcej zachodnich polityków mówi o zagrożeniu, jakie blogerzy stanowią dla autorytarnych reżimów, tym bardziej prawdopodobne jest, że te reżimy ograniczą pole manewru, w którym działają ci blogerzy. W niektórych krajach takie upolitycznienie może być lepsze, ponieważ blogowanie przybrałoby bardziej wyraźną rolę polityczną, a blogerzy mieliby status dziennikarzy lub obrońców praw człowieka. Ale w wielu innych krajach takie upolitycznienie może tylko zdusić rodzący się ruch internetowy, który mógłby odnieść dużo większe sukcesy, gdyby jego poparcie ograniczało się do dążenia do celów społecznych, a nie politycznych. To, czy Zachód musi upolityczniać blogowanie i postrzegać je jako naturalne przedłużenie działalności dysydentów, jest z pewnością złożonym pytaniem, które zasługuje na szeroką debatę publiczną. Ale to, że ta debata się w tej chwili nie toczy, nie oznacza, że ​​blogowanie nie jest upolitycznione, często do punktu bez powrotu, przez działania – a także deklaracje – zachodnich decydentów. Co więcej, uleganie cyberutopizmowi może uniemożliwić decydentom rozważenie całego szeregu innych ważnych kwestii. Czy powinni oklaskiwać lub uderzać w firmy technologiczne, które decydują się działać w reżimach autorytarnych, naginając w rezultacie swoje standardowe procedury? Czy są zwiastunami demokracji, jaką się podają, czy po prostu cyfrowymi odpowiednikami Halliburton i United Fruit Company, cynicznie wykorzystującymi lokalne możliwości biznesowe, jednocześnie wzmacniając rządy, które ich wpuściły? W jaki sposób Zachód powinien zrównoważyć nagłe dążenie do promowania demokracji przez Internet ze swoimi obecnymi zobowiązaniami do innych niemigitalnych strategii osiągnięcia tego samego celu, od wspierania niezależnych partii politycznych po rozwój organizacji społeczeństwa obywatelskiego? Jakie są najlepsze sposoby wzmocnienia pozycji aktywistów cyfrowych bez narażania ich na ryzyko? Jeśli Internet jest naprawdę rewolucyjną siłą, która może popchnąć wszystkie autorytarne reżimy w kierunku demokracji, czy Zachód powinien uciszyć wiele innych swoich obaw związanych z Internetem – pamiętajcie o tych wszystkich obawach dotyczących cyberwojny, cyberprzestępczości, internetowej pornografii dziecięcej, piractwa internetowego – i strajku gdy żelazo jest jeszcze gorące? To są niezwykle trudne pytania; są również niezwykle łatwe do udzielenia błędnej odpowiedzi. Podczas gdy Internet pomógł obniżyć koszty prawie wszystkiego, ludzkie szaleństwo jest towarem, który wciąż kosztuje stosunkowo wysoką cenę. Często powtarzana mantra ruchu open source – „często zawodzą, wcześnie zawodzą” – tworzy doskonałe oprogramowanie, ale nie ma zastosowania w sytuacjach, w których zagrożone jest ludzkie życie. Zachodni decydenci, w przeciwieństwie do ekspertów i naukowców, po prostu nie mają luksusu popełnienia błędu i późniejszego poradzenia sobie z konsekwencjami. Z punktu widzenia autorytarnych rządów znacząco spadły też koszty wykorzystywania zachodnich szaleństw. Naruszenie bezpieczeństwa tylko jednego działacza cyfrowego może oznaczać naruszenie bezpieczeństwa – nazwisk, twarzy, adresów e-mail – wszystkich, których zna dana osoba. Digitalizacja informacji również doprowadziła do ich ogromnej centralizacji: jedno skradzione hasło otwiera teraz drzwi do danych, które kiedyś nie istniały (do ilu różnych rodzajów danych – nie wspominając o osobach – miałoby dać dostęp, gdyby ktoś włamał się do Twojego hasła e-mail?). Nieokiełznany cyberutopizm to kosztowna ideologia do utrzymania, ponieważ autorytarne rządy nie stoją w miejscu i nie ma absolutnie żadnych gwarancji, że nie znajdą sposobu na przekształcenie Internetu w potężne narzędzie ucisku. Jeśli po dokładniejszym zbadaniu okaże się, że Internet wzmocnił także siły tajnej policji, cenzorów i biur propagandowych współczesnego autorytarnego reżimu, jest całkiem prawdopodobne, że proces demokratyzacji stanie się trudniejszy, a nie łatwiejszy. Podobnie, jeśli Internet obniżył poziom nastrojów antyrządowych – ponieważ ludzie uzyskali dostęp do taniej i prawie nieskończonej rozrywki cyfrowej lub ponieważ czują, że potrzebują rządu, aby chronił ich przed bezprawiem cyberprzestrzeni – z pewnością daje to reżimowi kolejne źródło legitymacji. Jeśli Internet przekształca samą naturę i kulturę oporu antyrządowego i sprzeciwu, odsuwając go od praktyk w świecie rzeczywistym w kierunku anonimowych przestrzeni wirtualnych, będzie to miało również znaczące konsekwencje dla skali i tempa ruch protestacyjny, nie wszystkie z nich są pozytywne. Większość obserwatorów potęgi politycznej Internetu zatraciła ten pogląd. Odmowa uznania, że ​​Internet może faktycznie wzmacniać, a nie osłabiać autorytarne reżimy, jest skrajnie nieodpowiedzialna i ostatecznie prowadzi do złej polityki, choćby dlatego, że daje decydentom fałszywe przekonanie, że jedyne rzeczy, które muszą robić, mają charakter proaktywny, a nie reaktywny . Jeśli jednak po dokładnym zbadaniu okaże się, że niektóre typy autorytarnych reżimów mogą korzystać z Internetu w nieproporcjonalnie większym stopniu niż ich przeciwnicy, nacisk działań na rzecz promocji demokracji na Zachodzie powinien przesunąć się ze wspierania działaczy w celu obalenia ich reżimów na przeciwdziałanie rządom. „własny wyzysk sieci, aby nie stać się jeszcze bardziej autorytarnymi. Nie ma sensu czynić rewolucji skuteczniejszą, szybszą i bardziej anonimową, jeśli szanse na jej sukces w międzyczasie się pogarszają.

Audyt Umysłu Hackera : Charakteryzacja Typów

Zazwyczaj charakterystyki cyberprzestępców należą do jednej z dwóch kategorii: teoretycznej i poincydentalnej (rzeczywistej lub kryminalistycznej). Podstawowym celem tego rozróżnienia jest to, że parametry, których metryki używają do oceny właściwości przeciwnika, będą się znacznie różnić, podobnie jak Aby określić, czy charakterystyka będzie wykorzystywała metodologie teoretyczne czy charakterystyczne, musimy ocenić charakter sytuacji i informacje, które są nam dostępne do przeprowadzenia charakterystyki. Chociaż wskaźniki stosowane do oceny braku obserwowalnych danych i przypisywania kontradyktoryjnych właściwości podczas charakteryzacji teoretycznej oraz obserwowalne dane przypisywane właściwościom kontradyktoryjnym podczas charakteryzowania rzeczywistego przeciwnika będą się różnić, wiele wskaźników używanych podczas rzeczywistej charakterystyki jest również powszechnych podczas oceny teoretycznej. , ale nie odwrotnie. Wynika to z faktu, że prawie wszystkie metryki, które są używane do charakteryzacji teoretycznej, są również przydatne do charakteryzowania rzeczywistych przeciwników, ale nie na odwrót, ponieważ dodatkowe metryki używane w charakteryzacjach kryminalistycznych opierają się na danych, które nie zawsze będą dostępne podczas charakterystyki teoretycznej, ponieważ żaden faktyczny incydent nie miał miejsca. Chociaż dane z wcześniejszych ataków są przydatne do budowania profili typów przeciwników, podczas charakteryzacji teoretycznej możemy tylko spekulować, że podmiot będzie miał ł podobne zachowanie do tego, które miało miejsce podczas ataku w przeszłości. Metryki używane podczas charakteryzacji teoretycznych, a nie do formułowania ogólnych założeń, że zachowania z przeszłości, rzekomo podobnego przeciwnika, są podobne do teoretycznego. Pamiętaj, że żaden z dwóch przeciwników nie będzie zachowywał się dokładnie w ten sam sposób.

Charakteryzacja teoretyczna

Teoria charakteryzacji teoretycznej jest prawdopodobnie najbardziej przydatna do wykonywania i ulepszania dokładności charakteryzacji zagrożeń związanych z aktywami, do ulepszania projektów topologii sieci i systemów danych oraz do opracowywania skutecznych metodologii testowania odporności tych systemów na znane i nieznane.

Wprowadzenie do teorii

Wielu członków grup opracowujących zaufane systemy komputerowe stwierdziło, że niezwykle pożyteczna byłaby sytuacja, w której programista byłby w stanie ocenić profile kilku prawdziwych hakerów, zidentyfikowanych jako potencjalnie stwarzających zagrożenie dla czegokolwiek to może być W ten sposób mogli ocenić, w jaki sposób każdy z przeciwników podejmie atak na swoją platformę, używając teorii charakteryzacji, aby wyjaśnić, jak każdy z nich zachowywał się w teście i dlaczego tak się zachowywał. Chociaż takie podejście może bardzo dobrze ujawnić kilka wcześniej niewidocznych problemów w projektowaniu lub wdrażaniu rozwiązania, jest to metodologia nieco doraźna, ponieważ osoby wybrane ręcznie, bez dokładnej oceny przed ćwiczeniem, miałyby kilka nieznanych właściwości. Co więcej, sam proces wykorzystywania „prawdziwych” hakerów może zepsuć jakąkolwiek wartość uzyskaną dzięki osobom, które zgodzą się wziąć udział w testach o wspólnych właściwościach. W tym scenariuszu preferencyjna metodologia postawiłaby programistę w sytuacji, w której mógłby on „fuzzować” przeciwników poprzez zmianę właściwości (zmiennych) wspomnianego przeciwnika i przy użyciu tych samych technik, które są używane do wyliczenia każdego przeciwnika, oceniając, jak uzyskany scharakteryzowany przeciwnik zachowałby się w danej sytuacji. ta metodologia ma tę zaletę, że jest wysoce kontrolowana i skalowalna, a w środowisku testowym testy sprawdzające dokładność samej metodologii byłyby trywialne do zorkiestrowania z wykorzystanie przeciwników. Jest to jedno z wielu zastosowań teorii charakteryzacji teoretycznej. Ten przykład jest dość specyficzny dla projektu systemu; Drugim najczęściej stosowanym zastosowaniem do charakteryzacji teoretycznej było scharakteryzowanie konkretnego zagrożenia, jakie stwarza dany składnik aktywów. Chociaż teoria używana do charakteryzowania zagrożeń związanych z zasobami pozostaje taka sama, fakt, że masz teraz do czynienia z zasobami (systemami komputerowymi lub innymi), które zostały już zaprojektowane, znacząco zmienia proces, przez który musisz przejść.

Charakterystyka po incydencie

W ciągu większości dni w dzisiejszym coraz bardziej wrogim Internecie administratorzy systemów, administratorzy sieci i personel pracujący w centrach operacji sieciowych dostawców zarządzanych usług bezpieczeństwa mają do czynienia z setkami ryz raportów zawierających szczegółowe informacje, gdyby zostały wydrukowane , do rzekomych incydentów w sieciach ich lub ich klientów. W dawnych złych czasach wykrywania włamań posiadanie systemu, który raportowałby zdarzenia na hoście i sieciowych urządzeniach włamań było uważane za wystarczające. Oczywiście większość dużych organizacji zdała sobie sprawę, że 20000 dolarów które właśnie zainwestowały w iDs, generuje więcej dzienników zdarzeń na sekundę niż liczba pracowników w ich organizacji, którzy przeglądają każdy wpis w dzienniku. W odpowiedzi, przymknie oko na lub (prawdopodobnie co najważniejsze) oznaczy zdarzenie jako fałszywie dodatnie. w ten sposób nadeszła era dostawcy zarządzanych usług bezpieczeństwa (MSS), który wykupił na rynku komercyjnym technologię korelacji zdarzeń i wykrywania fałszywych alarmów IDS. W przypadku większości organizacji wprowadzenie dostawcy MSS rozwiązało problem polegający na wydaniu znacznych kwot z ich budżetu na hostowe i sieciowe urządzenia do wykrywania włamań, na zarządzanie którymi nie było ich stać, ale pozostał jeden być może niewidoczny problem. Na chwilę wciel się w rolę administratora systemów w dużej organizacji, która przeszła przez proces zakupu sieciowych urządzeń do wykrywania włamań, połączony z nabyciem zarządzanych usług od dostawcy MSS. Logujesz się na stronie portalu MSS i wyświetl karty, które zostały zebrane dla Twoich segmentów sieci w wyniku wielu skorelowanych zdarzeń IDS. Pierwsze zgłoszenie, które zauważysz, informuje, że ktoś pochodzący z adresu IP znajdującego się w Chinach skanował kilka określonych zakresów portów na jednym z twoich projektów sieci. Uwaga na karcie  mówi, że zdarzenie powtórzyło się kilka razy w ciągu ostatnich trzech dni. Poniżej podsumowania informacji znajduje się kilka stron technicznych gadżetów dotyczących określonego źródłowego systemu operacyjnego pakietów i najbardziej prawdopodobnego narzędzia, które zostało użyte do wykonania skanowania – ale ignorujesz to, ponieważ skanowane zakresy portów nie mają dla Ciebie znaczenia i masz 90 innych kart IDS do przejrzenia przed spotkaniem operacyjnym za godzinę. Dwa dni później nowo zatrudniony administrator systemów ogłasza na firmowej tablicy ogłoszeń w intranecie, że serwer WWW w sieci produkcyjnej został przejęty przez skradzione dane logowania. Twoim zadaniem jest teraz poprowadzić dochodzenie w sprawie tego, co się stało. Pomijając podejrzenie, że osoba poufna brała udział w przejęciu hosta, który obsługiwał główną witrynę firmy w sieci Web do współpracy, naprawdę nie masz pewności, w jakim kierunku należy podjąć dochodzenie. Chociaż serwer obsługuje witrynę sieci Web i obecnie otrzymuje ponad 100 000 odwiedzin dziennie, zawartość witryny nie została w żaden sposób zniszczona; nie ma rejestrów tego, co osoba zrobiła w systemie, a wszystko, co masz, to dane IDS i potencjalny insider bez pojęcia, jak „wygląda” twój przeciwnik ani jakie są jego motywacje do ataku.

Wprowadzenie do teorii charakteryzacji

Kiedy mówimy o powypadkowej lub kryminalistycznej charakterystyce adwersarza, mamy na myśli sytuację, w której doszło do incydentu nieokreślonego rodzaju, przedstawiając jakąś formę danych, na których będziesz opierać dane, które możesz mieć po incydencie, podobnie jak nasz krótki Przykład: Istnieje kilka głównych celów tej formy charakterystyki. Miejmy nadzieję, że każdy cel zapewnia dźwignię uzasadniającą wyważoną reakcję na incydent, niezależnie od tego, czy reakcja ta ma na celu zmianę działania w projekcie sieci produkcyjnej na bardziej bezpieczny model, aby stworzyć dokładny profil przeciwnika, aby pomóc mu w jego lub jej schwytanie, lub co najważniejsze, w celu lepszego zrozumienia rodzajów ludzi, którzy naprawdę chcą włamać się do twojej sieci, ich motywacji i rodzajów ataków, które prawdopodobnie zobaczysz, pochodzących ze wspomnianego podzbioru przeciwników. Ponieważ miało miejsce faktyczne zdarzenie, punkt początkowy, w którym rozpoczyna się charakterystyka, zmienia się z typowego punktu początkowego charakterystyki teoretycznej na dane (IDS lub inne) dotyczące incydentu. W tym celu jedno z zastosowań teoretycznej charakterystyki przeciwnika która w przeszłości wzbudzała duże zainteresowanie i budziła wiele pytań, to możliwość zastosowania technologii, która może zautomatyzować charakterystykę przeciwników na podstawie samych danych IDS, dostarczając w czasie rzeczywistym „wynik” przeciwnika odpowiedzialnego za uruchomienie IDS. Chociaż ważne jest, aby pamiętać, że taki zautomatyzowany mechanizm nigdy nie mógłby być tak dokładny, jak wykonywanie czynności ręcznie, ze względu na ograniczone dane, do których IDS ma dostęp i ograniczenia wynikające z wyciągania wniosków przez IDS w oparciu o sztywne i szybkie reguły, co pozwala atakującemu na albo oszukać, albo ominąć te zasady, taka technologia jest bardzo możliwa. Miary, takie jak te, które badają semantykę ataku, mogą zostać wykorzystane do wyciągnięcia wniosków na temat przeciwnika na podstawie danych, takich jak system operacyjny, z którego korzysta osoba atakująca, exploit, którego używa, system operacyjny celu i trudność włamać się. W kolejnych rozdziałach omówiono niektóre z tematów (i problemów) przedstawionych dotyhczas. W kolejnych artykułach przanalizujemy wiele teorii charakteryzacji, do których nawiązano dotchzas , w tym tę, która może być użyta zarówno do charakteryzacji teoretycznej (typu aktywów), jak i której możemy użyć w niefortunnych czasach, gdy zdarzają się incydenty, dając nam ramy, w których możemy szukać atrybucji.

Zaufanie w Cyberspace : Zaufanie i bezpieczeństwo w czołowych technologiach przyszłości

Wszechobecna informatyka

Wszechobecne obliczenia lub wszechobecne obliczenia są używane zamiennie do oznaczania wykorzystania technologii komputerowych i urządzeń w codziennym życiu człowieka. Jego podstawową ideą jest uczynienie technologii łatwo dostępnej dla ludzi, a nie zmuszanie ich do dostosowania się do postępu technologicznego. Dziedzina ta wywodzi się zasadniczo z pola interakcji człowiek-komputer (HCI), które następnie uzyskało wsparcie z innych dziedzin, a złożony zestaw różnych innych obszarów przyczynił się do jego rozwoju. Jeśli urządzenia techniczne mieszają się ze zwykłym ludzkim życiem, zaufanie do obiektów w środowisku staje się kwestią najwyższej wagi. Takie zaufanie wśród elektronicznych /urządzenia techniczne można osiągnąć za pomocą systemów opartych na reputacji, jak omówiono wcześniej. Z drugiej strony bezpieczeństwo w przypadku wszechobecnej informatyki jest często tak trudne do zdefiniowania, jak jest w rzeczywistości; możliwe jest zapewnienie poczucia bezpieczeństwa w wszechobecnym środowisku komputerowym, ale ponieważ urządzenia mogą być różnych platform i funkcji, w rzeczywistości jest to skomplikowane zadanie, aby zapewnić odpowiednie bezpieczeństwo w wszechobecnej komunikacji.

Internet rzeczy i przyszłość Internetu

Internet rzeczy (IoT) to terminologia używana do unikalnych obiektów (lub rzeczy) i ich wirtualnych reprezentacji w strukturze podobnej do Internetu. Idea IoT uwzględnia to samo wszechobecne środowisko, co wszechobecne przetwarzanie. Podstawowa różnica między wszechobecną informatyką a IoT polega na tym, że gdy to samo ustawienie jest widziane z punktu widzenia konceptualnego, określa się je jako wszechobecne środowisko, ale patrząc pod kątem możliwych do zidentyfikowania obiektów biorących udział w systemie, nazywa się to IoT, Internet ,podobna sieć sieci. Ponieważ Internet przedmiotów i wszechobecne przetwarzanie danych zajmują się tym samym środowiskiem połączonych urządzeń (tj. różnego rodzaju urządzeń o różnej naturze i mocach obliczeniowych), zaufanie i bezpieczeństwo zarządzanie jest podobne do metod omówionych wcześniej. Oznacza to, że schemat opracowany dla wszechobecnego środowiska obliczeniowego może być również stosowany w większości przypadków do Internetu przedmiotów, gdy zajmowane jest zaufanie na poziomie urządzenia i bezpieczeństwo. Chociaż IoT został jasno zdefiniowany do tego czasu, Future Internet jest nadal niejasnym terminem. Przyszły Internet odnosi się zasadniczo do szerokiej gamy tematów badawczych związanych z ideą Internetu łączącego wiele urządzeń sieciowych na całym świecie. Jeśli pod koniec zostanie przedstawiony po prostu stosunkowo szybszy Internet z nowymi urządzeniami i technikami, może to być jedynie rozszerzenie obecnego Internetu. Podstawową wizją Internetu przyszłości jest jednak to, że nie jest to Internet, który widzieliśmy do tej pory; może mieć nowy sposób pracy, może mieć nową metodę łączenia urządzeń, a nawet może być kompletne podejście do rozwijania go. Ponieważ pełna definicja operacyjna nie została jeszcze sfinalizowana, zaufanie i bezpieczeństwo w Future Internet są również w fazie wstępnego badania i nie można ich wyraźnie opisać.

Bezprzewodowe sieci ad hoc i czujniki

Bezprzewodowa sieć ad hoc jest połączeniem węzłów obliczeniowych, które mogą komunikować się ze sobą bez obecności formalnej jednostki centralnej (bez infrastruktury lub półinfrastruktury) i mogą być tworzone w dowolnym miejscu i czasie. Każdy węzeł w sieci ad hoc może pełnić rolę hosta i urządzenia podobnego do routera w sieci. Mogą istnieć różne formy sieci ad hoc, takie jak mobilne sieci ad hoc (MANET), samochodowe sieci ad hoc (VANET), bezprzewodowe sieci kratowe (WMN), bezprzewodowe sieci czujników (WSN), sieci obszaru ciała (BAN), obszar osobisty sieci (PAN), itp. Chociaż wszystkie z nich zawierają pewne wspólne cechy technologii ad hoc, WSN jest siecią, o której warto wspomnieć, zwłaszcza, że ​​ten typ sieci ma dodatkową funkcję, która może mieć stację bazową, taką jak stała centrala jednostka do przetwarzania pakietów sieciowych i wszystkich innych węzłów czujnikowych w sieci mogłaby zostać wdrożona d hoc. Podstawowe cechy sieci ad hoc wymagają zaufania do inicjowania procesu komunikacji. W większości przypadków potrzebny jest pewien rodzaj przyjętego modelu, aby wprowadzić pojęcie wiary i zapewnić dynamiczną miarę wiarygodności i wiarygodności w scenariuszu ad hoc. Pomimo dodatkowej przewagi pewnego rodzaju centralnego organu w WSN (gdzie każdy uczestniczący podmiot nie jest zbyt rozproszony, jak czyste sieci ad hoc), prace badawcze związane z zaufaniem nadal wymagają konkretnych osiągnięć, aby osiągnąć zadowalający poziom. Jeśli chodzi o bezpieczeństwo, istnieją setki prac nad zarządzaniem kluczami, bezpiecznym routingiem, usługami bezpieczeństwa i systemami wykrywania włamań dla dowolnej sieci ad hoc

Chmura obliczeniowa

Przetwarzanie w chmurze to niedawno ukuty termin, w którym przetwarzanie rozproszone jest postrzegane z perspektywy świadczenia „usługi obliczeniowej”. Podstawową koncepcją przetwarzania w chmurze jest płatność oparta na wykorzystaniu zasobów i zasobach IT, które nie istnieją u użytkowników. koniec. Strategia ta umożliwia użytkownikom wykonywanie zadań za pomocą urządzeń komputerowych o ograniczonych zasobach, których wcześniej nie mogli wykonać. Aby wspierać takie rodzaje komunikacji i komputerów, istnieje wiele problemów badawczych, które należy rozważyć, aby zasoby były zarządzane w sposób wydajny i bezpieczny. W rzeczywistości dynamika usług, elastyczność i wybory oferowane przez tę wysoce skalowalną technologię są bardzo atrakcyjne dla różnych przedsiębiorstw. Te możliwości stwarzają jednak wiele wyzwań związanych z zaufaniem i bezpieczeństwem. Przetwarzanie w chmurze otworzyło nowe granice wyzwań, wprowadzając inny typ scenariusza zaufania, w którym technologia potrzebuje podstawowego zaufania uczestniczących podmiotów do rozpoczęcia funkcjonowania. Podczas gdy zaufanie może nadal być istotne dla koncepcji chmury, bezpieczeństwo stawia poważną trudność, na przykład, gdy bierze się pod uwagę uwierzytelnianie. Idea przetwarzania w chmurze polega na zachowaniu tożsamości dostawców usług w stanie pochmurnym, ale uwierzytelnienie, jako część bezpieczeństwa, wymagałoby prawidłowej identyfikacji obiektów, aby można było również zapewnić własność niezaprzeczalności. Niezaprzeczalność, w prostym znaczeniu, oznacza możliwość zapewnienia, że ​​strona w umowie lub zdarzeniu komunikacyjnym nie może zaprzeczyć autentyczności własnych wiadomości, pakietów, podpisu lub innego rodzaju dokumentu, który generuje. Te sprzeczne zasady sprawiły, że bezpieczeństwo przetwarzania w chmurze nadal stanowi bardzo trudny obszar badań. Jednym z możliwych rozwiązań jest utrzymanie pewnego rodzaju zaufanego dostawcy usług i korzystanie z nich przez zaufany serwer dostarczający usługi lub menedżera usług. Inną kwestią w tej dziedzinie jest to, jak długo należy utrzymywać ustalone zaufanie lub jak je zburzyć, zachowując nienaruszoną koncepcję chmury? (Oznacza to, że klienci nie wiedzą dokładnie, w których lokalizacjach otrzymują wymagane usługi lub w jaki sposób ich żądania zostały przetworzone.) W rzeczywistości jest to obszar, w którym zaufanie i bezpieczeństwo są ze sobą powiązane. Elementy przetwarzania w chmurze łączą się również z pojęciem Internetu przyszłości, co prowadzi do koncepcji sieci w chmurze. Stąd też postęp w dziedzinie zaufania i bezpieczeństwa w cloud computing może również przyczynić się do tych samych obszarów w przyszłości Internetu.

Sieci konwergentne nowej generacji

Zanim określimy relację między zaufaniem a bezpieczeństwem, przypomnijmy podstawową różnicę między dwoma terminami hybrydowymi i zbieżnymi. Chociaż niektóre obszary badań można podzielić na więcej podobszarów i tematów, wśród naukowców istnieje tendencja do myślenia o łączeniu różnych technologii. Termin hybryda jest powszechnie stosowany w takich przypadkach. Często ludzie mówią o połączeniu struktury fizycznej lub różnych platform urządzeń, korzyści lub usług lub cech różnych technologii, aby uzyskać system hybrydowy.

Jednak termin konwergencja sieci lub bardziej konkretnie konwergentna sieć wykracza poza pojęcie hybrydyzacji sieci lub sieci hybrydowej. W dziedzinie telekomunikacji konwergencja sieci odnosi się do świadczenia usług telefonicznych, wideo i transmisji danych w ramach jednej sieci. Tak więc, chociaż hybryda po prostu odnosi się do łączenia pozornie rozłącznych technologii / usług, konwergencja odnosi się do odpowiedniego mieszania i płynnej funkcjonalności wspólnego systemu. Dlatego sieć konwergentna wymaga jednej rury do dostarczania wszystkich form usług komunikacyjnych. Nie ma wątpliwości, że proces konwergencji sieci wynika przede wszystkim z rozwoju technologii i popytu. Jednym z głównych celów takiej integracji jest dostarczanie konsumentom lepszych usług i niższych cen. Zamiast płacić oddzielnie za każdą usługę lub technologię, użytkownicy mogą mieć dostęp do szerszego zakresu usług i wybierać spośród większej liczby dostawców usług, co uczyniłoby użytkowników głównymi beneficjentami, a także zapewniło zysk dostawcy. W rzeczywistości konwergencja umożliwia dostawcom usług przyjmowanie nowych modeli biznesowych, oferowanie innowacyjnych usług, korzystanie z ofert specjalnych i wchodzenie na nowe rynki. Inna definicja konwergencji sieci lub po prostu konwergencji może być podana jako szeroki termin używany do opisywania nowych technologii telekomunikacyjnych i architektury sieci wykorzystywanych do migracji wielu usług komunikacyjnych do jednej sieci. Oznacza to, że przyszłe sieci są również objęte tą koncepcją. W niektórych publikacjach formalna definicja sieci konwergentnej to: perspektywa ponadnarodowa, jak integracja i digitalizacja. Integracja jest tutaj definiowana jako proces pomiaru transformacji o stopień, w jakim różne media, takie jak telefon, transmisja danych i infrastruktura informatyczna, są połączone w jedną jednolitą platformę architektury sieci uniwersalnej. Cyfryzacja nie jest tak bardzo definiowana przez jej fizyczną infrastrukturę, jak przez treść lub medium. Czasami digitalizacja oznacza rozbijanie sygnałów na bajty składające się z zer i jedynek; to takie proste!

Aby rozwiązać ten problem i zrozumieć go z praktycznych perspektyw, możemy zauważyć, że podjęto wiele ostatnich inicjatyw, takich jak sieci nowej generacji (NGN) i podsystemy multimedialne IP (IMS), aby zapewnić bezproblemową architekturę dla różnych technologii dostępu, które harmonizują z cele określone przez konwergencję sieci. Oprócz innych innowacyjnych podejść, na przykład poprzez integrację różnych technologii – platform dostarczania usług (SDP) i IMS – możliwe jest teraz łatwe dostarczanie, wykonywanie i zarządzanie usługami. Inne problemy, takie jak komunikacja punkt-punkt i transmisja, usługi zorientowane na dane i multimedia, systemy mobilne i komórkowe oraz szybkie łącza światłowodowe i mobilność, pozostają trudnymi zadaniami i, co najmniej, obraz typu end-to-end to wciąż niejasne. Jak powinno do tego czasu, gdy pełny obraz nie jest jasny, ten sam rodzaj niepewności w określaniu granic zaufania i bezpieczeństwa pozostaje taki sam, jak w przypadku innych innowacyjnych technologii przedstawionych wcześniej.

Wnioski i otwarte problemy

W dzisiejszym świecie duże firmy, takie jak Amazon i eBay (lub podobne firmy) używają pewnego rodzaju systemu ratingowego, który opiera się na zaufaniu lub stanowi podstawę zaufania do produktów sprzedawanych przy użyciu tych kanałów. Bezpieczeństwo opiera się na zaufaniu i służy głównie do zezwalania na transakcje pieniężne. Zarządzanie zaufaniem w rzeczywistości jest złożoną mieszanką różnych dziedzin, jeśli weźmiemy pod uwagę technologie obliczeniowe i komunikacyjne razem. W tym rozdziale omówiono niektóre przyszłe technologie, ale istnieje wiele innych pojawiających się dziedzin, takich jak komunikacja bliskiego pola (NFC), elektroniczne zarządzanie wiedzą, sieci nanokomunikacyjne itp., Które również będą potrzebowały wsparcia zaufania i bezpieczeństwa. Naukowcy i praktycy z różnych dziedzin, takich jak sieci, sieci i przetwarzanie w chmurze, przetwarzanie rozproszone, systemy informacyjne, HCl i modelowanie ludzkich zachowań mogą być ofiarodawcami, a połączenie różnych dziedzin pod tym parasolem stanie się nieuniknione w nadchodzących dniach. Bez względu na postępy, jakie moglibyśmy osiągnąć w konkretnej skali w nadchodzących dniach, niektóre podstawowe pytania mogą wciąż pozostać takie, jak długo należy utrzymywać lub utrzymywać ustalone zaufanie w jakimkolwiek systemie komputerowym i komunikacyjnym? Jeśli potrzebne jest okresowe odświeżanie i ponowne ustanawianie zaufania, jaki może być optymalny interwał dla różnych ustawień? Czy okresowe przywracanie zaufania wpłynie na ustanowione bezpieczne kanały? Czy bezpieczeństwo będzie w stanie działać samodzielnie, gdy parametry zaufania zostaną całkowicie zignorowane? Nadal pozostaną główne pytania: czy w przyszłych technologiach innowacyjnych będą istniały wyraźne granice między zaufaniem a bezpieczeństwem, czy też należy uwzględnić zaufanie w granicach bezpieczeństwa?