Audyt Umysłu Hackera : Charakteryzacja Typów

Zazwyczaj charakterystyki cyberprzestępców należą do jednej z dwóch kategorii: teoretycznej i poincydentalnej (rzeczywistej lub kryminalistycznej). Podstawowym celem tego rozróżnienia jest to, że parametry, których metryki używają do oceny właściwości przeciwnika, będą się znacznie różnić, podobnie jak Aby określić, czy charakterystyka będzie wykorzystywała metodologie teoretyczne czy charakterystyczne, musimy ocenić charakter sytuacji i informacje, które są nam dostępne do przeprowadzenia charakterystyki. Chociaż wskaźniki stosowane do oceny braku obserwowalnych danych i przypisywania kontradyktoryjnych właściwości podczas charakteryzacji teoretycznej oraz obserwowalne dane przypisywane właściwościom kontradyktoryjnym podczas charakteryzowania rzeczywistego przeciwnika będą się różnić, wiele wskaźników używanych podczas rzeczywistej charakterystyki jest również powszechnych podczas oceny teoretycznej. , ale nie odwrotnie. Wynika to z faktu, że prawie wszystkie metryki, które są używane do charakteryzacji teoretycznej, są również przydatne do charakteryzowania rzeczywistych przeciwników, ale nie na odwrót, ponieważ dodatkowe metryki używane w charakteryzacjach kryminalistycznych opierają się na danych, które nie zawsze będą dostępne podczas charakterystyki teoretycznej, ponieważ żaden faktyczny incydent nie miał miejsca. Chociaż dane z wcześniejszych ataków są przydatne do budowania profili typów przeciwników, podczas charakteryzacji teoretycznej możemy tylko spekulować, że podmiot będzie miał ł podobne zachowanie do tego, które miało miejsce podczas ataku w przeszłości. Metryki używane podczas charakteryzacji teoretycznych, a nie do formułowania ogólnych założeń, że zachowania z przeszłości, rzekomo podobnego przeciwnika, są podobne do teoretycznego. Pamiętaj, że żaden z dwóch przeciwników nie będzie zachowywał się dokładnie w ten sam sposób.

Charakteryzacja teoretyczna

Teoria charakteryzacji teoretycznej jest prawdopodobnie najbardziej przydatna do wykonywania i ulepszania dokładności charakteryzacji zagrożeń związanych z aktywami, do ulepszania projektów topologii sieci i systemów danych oraz do opracowywania skutecznych metodologii testowania odporności tych systemów na znane i nieznane.

Wprowadzenie do teorii

Wielu członków grup opracowujących zaufane systemy komputerowe stwierdziło, że niezwykle pożyteczna byłaby sytuacja, w której programista byłby w stanie ocenić profile kilku prawdziwych hakerów, zidentyfikowanych jako potencjalnie stwarzających zagrożenie dla czegokolwiek to może być W ten sposób mogli ocenić, w jaki sposób każdy z przeciwników podejmie atak na swoją platformę, używając teorii charakteryzacji, aby wyjaśnić, jak każdy z nich zachowywał się w teście i dlaczego tak się zachowywał. Chociaż takie podejście może bardzo dobrze ujawnić kilka wcześniej niewidocznych problemów w projektowaniu lub wdrażaniu rozwiązania, jest to metodologia nieco doraźna, ponieważ osoby wybrane ręcznie, bez dokładnej oceny przed ćwiczeniem, miałyby kilka nieznanych właściwości. Co więcej, sam proces wykorzystywania „prawdziwych” hakerów może zepsuć jakąkolwiek wartość uzyskaną dzięki osobom, które zgodzą się wziąć udział w testach o wspólnych właściwościach. W tym scenariuszu preferencyjna metodologia postawiłaby programistę w sytuacji, w której mógłby on „fuzzować” przeciwników poprzez zmianę właściwości (zmiennych) wspomnianego przeciwnika i przy użyciu tych samych technik, które są używane do wyliczenia każdego przeciwnika, oceniając, jak uzyskany scharakteryzowany przeciwnik zachowałby się w danej sytuacji. ta metodologia ma tę zaletę, że jest wysoce kontrolowana i skalowalna, a w środowisku testowym testy sprawdzające dokładność samej metodologii byłyby trywialne do zorkiestrowania z wykorzystanie przeciwników. Jest to jedno z wielu zastosowań teorii charakteryzacji teoretycznej. Ten przykład jest dość specyficzny dla projektu systemu; Drugim najczęściej stosowanym zastosowaniem do charakteryzacji teoretycznej było scharakteryzowanie konkretnego zagrożenia, jakie stwarza dany składnik aktywów. Chociaż teoria używana do charakteryzowania zagrożeń związanych z zasobami pozostaje taka sama, fakt, że masz teraz do czynienia z zasobami (systemami komputerowymi lub innymi), które zostały już zaprojektowane, znacząco zmienia proces, przez który musisz przejść.

Charakterystyka po incydencie

W ciągu większości dni w dzisiejszym coraz bardziej wrogim Internecie administratorzy systemów, administratorzy sieci i personel pracujący w centrach operacji sieciowych dostawców zarządzanych usług bezpieczeństwa mają do czynienia z setkami ryz raportów zawierających szczegółowe informacje, gdyby zostały wydrukowane , do rzekomych incydentów w sieciach ich lub ich klientów. W dawnych złych czasach wykrywania włamań posiadanie systemu, który raportowałby zdarzenia na hoście i sieciowych urządzeniach włamań było uważane za wystarczające. Oczywiście większość dużych organizacji zdała sobie sprawę, że 20000 dolarów które właśnie zainwestowały w iDs, generuje więcej dzienników zdarzeń na sekundę niż liczba pracowników w ich organizacji, którzy przeglądają każdy wpis w dzienniku. W odpowiedzi, przymknie oko na lub (prawdopodobnie co najważniejsze) oznaczy zdarzenie jako fałszywie dodatnie. w ten sposób nadeszła era dostawcy zarządzanych usług bezpieczeństwa (MSS), który wykupił na rynku komercyjnym technologię korelacji zdarzeń i wykrywania fałszywych alarmów IDS. W przypadku większości organizacji wprowadzenie dostawcy MSS rozwiązało problem polegający na wydaniu znacznych kwot z ich budżetu na hostowe i sieciowe urządzenia do wykrywania włamań, na zarządzanie którymi nie było ich stać, ale pozostał jeden być może niewidoczny problem. Na chwilę wciel się w rolę administratora systemów w dużej organizacji, która przeszła przez proces zakupu sieciowych urządzeń do wykrywania włamań, połączony z nabyciem zarządzanych usług od dostawcy MSS. Logujesz się na stronie portalu MSS i wyświetl karty, które zostały zebrane dla Twoich segmentów sieci w wyniku wielu skorelowanych zdarzeń IDS. Pierwsze zgłoszenie, które zauważysz, informuje, że ktoś pochodzący z adresu IP znajdującego się w Chinach skanował kilka określonych zakresów portów na jednym z twoich projektów sieci. Uwaga na karcie  mówi, że zdarzenie powtórzyło się kilka razy w ciągu ostatnich trzech dni. Poniżej podsumowania informacji znajduje się kilka stron technicznych gadżetów dotyczących określonego źródłowego systemu operacyjnego pakietów i najbardziej prawdopodobnego narzędzia, które zostało użyte do wykonania skanowania – ale ignorujesz to, ponieważ skanowane zakresy portów nie mają dla Ciebie znaczenia i masz 90 innych kart IDS do przejrzenia przed spotkaniem operacyjnym za godzinę. Dwa dni później nowo zatrudniony administrator systemów ogłasza na firmowej tablicy ogłoszeń w intranecie, że serwer WWW w sieci produkcyjnej został przejęty przez skradzione dane logowania. Twoim zadaniem jest teraz poprowadzić dochodzenie w sprawie tego, co się stało. Pomijając podejrzenie, że osoba poufna brała udział w przejęciu hosta, który obsługiwał główną witrynę firmy w sieci Web do współpracy, naprawdę nie masz pewności, w jakim kierunku należy podjąć dochodzenie. Chociaż serwer obsługuje witrynę sieci Web i obecnie otrzymuje ponad 100 000 odwiedzin dziennie, zawartość witryny nie została w żaden sposób zniszczona; nie ma rejestrów tego, co osoba zrobiła w systemie, a wszystko, co masz, to dane IDS i potencjalny insider bez pojęcia, jak „wygląda” twój przeciwnik ani jakie są jego motywacje do ataku.

Wprowadzenie do teorii charakteryzacji

Kiedy mówimy o powypadkowej lub kryminalistycznej charakterystyce adwersarza, mamy na myśli sytuację, w której doszło do incydentu nieokreślonego rodzaju, przedstawiając jakąś formę danych, na których będziesz opierać dane, które możesz mieć po incydencie, podobnie jak nasz krótki Przykład: Istnieje kilka głównych celów tej formy charakterystyki. Miejmy nadzieję, że każdy cel zapewnia dźwignię uzasadniającą wyważoną reakcję na incydent, niezależnie od tego, czy reakcja ta ma na celu zmianę działania w projekcie sieci produkcyjnej na bardziej bezpieczny model, aby stworzyć dokładny profil przeciwnika, aby pomóc mu w jego lub jej schwytanie, lub co najważniejsze, w celu lepszego zrozumienia rodzajów ludzi, którzy naprawdę chcą włamać się do twojej sieci, ich motywacji i rodzajów ataków, które prawdopodobnie zobaczysz, pochodzących ze wspomnianego podzbioru przeciwników. Ponieważ miało miejsce faktyczne zdarzenie, punkt początkowy, w którym rozpoczyna się charakterystyka, zmienia się z typowego punktu początkowego charakterystyki teoretycznej na dane (IDS lub inne) dotyczące incydentu. W tym celu jedno z zastosowań teoretycznej charakterystyki przeciwnika która w przeszłości wzbudzała duże zainteresowanie i budziła wiele pytań, to możliwość zastosowania technologii, która może zautomatyzować charakterystykę przeciwników na podstawie samych danych IDS, dostarczając w czasie rzeczywistym „wynik” przeciwnika odpowiedzialnego za uruchomienie IDS. Chociaż ważne jest, aby pamiętać, że taki zautomatyzowany mechanizm nigdy nie mógłby być tak dokładny, jak wykonywanie czynności ręcznie, ze względu na ograniczone dane, do których IDS ma dostęp i ograniczenia wynikające z wyciągania wniosków przez IDS w oparciu o sztywne i szybkie reguły, co pozwala atakującemu na albo oszukać, albo ominąć te zasady, taka technologia jest bardzo możliwa. Miary, takie jak te, które badają semantykę ataku, mogą zostać wykorzystane do wyciągnięcia wniosków na temat przeciwnika na podstawie danych, takich jak system operacyjny, z którego korzysta osoba atakująca, exploit, którego używa, system operacyjny celu i trudność włamać się. W kolejnych rozdziałach omówiono niektóre z tematów (i problemów) przedstawionych dotyhczas. W kolejnych artykułach przanalizujemy wiele teorii charakteryzacji, do których nawiązano dotchzas , w tym tę, która może być użyta zarówno do charakteryzacji teoretycznej (typu aktywów), jak i której możemy użyć w niefortunnych czasach, gdy zdarzają się incydenty, dając nam ramy, w których możemy szukać atrybucji.

Zaufanie w Cyberspace : Zaufanie i bezpieczeństwo w czołowych technologiach przyszłości

Wszechobecna informatyka

Wszechobecne obliczenia lub wszechobecne obliczenia są używane zamiennie do oznaczania wykorzystania technologii komputerowych i urządzeń w codziennym życiu człowieka. Jego podstawową ideą jest uczynienie technologii łatwo dostępnej dla ludzi, a nie zmuszanie ich do dostosowania się do postępu technologicznego. Dziedzina ta wywodzi się zasadniczo z pola interakcji człowiek-komputer (HCI), które następnie uzyskało wsparcie z innych dziedzin, a złożony zestaw różnych innych obszarów przyczynił się do jego rozwoju. Jeśli urządzenia techniczne mieszają się ze zwykłym ludzkim życiem, zaufanie do obiektów w środowisku staje się kwestią najwyższej wagi. Takie zaufanie wśród elektronicznych /urządzenia techniczne można osiągnąć za pomocą systemów opartych na reputacji, jak omówiono wcześniej. Z drugiej strony bezpieczeństwo w przypadku wszechobecnej informatyki jest często tak trudne do zdefiniowania, jak jest w rzeczywistości; możliwe jest zapewnienie poczucia bezpieczeństwa w wszechobecnym środowisku komputerowym, ale ponieważ urządzenia mogą być różnych platform i funkcji, w rzeczywistości jest to skomplikowane zadanie, aby zapewnić odpowiednie bezpieczeństwo w wszechobecnej komunikacji.

Internet rzeczy i przyszłość Internetu

Internet rzeczy (IoT) to terminologia używana do unikalnych obiektów (lub rzeczy) i ich wirtualnych reprezentacji w strukturze podobnej do Internetu. Idea IoT uwzględnia to samo wszechobecne środowisko, co wszechobecne przetwarzanie. Podstawowa różnica między wszechobecną informatyką a IoT polega na tym, że gdy to samo ustawienie jest widziane z punktu widzenia konceptualnego, określa się je jako wszechobecne środowisko, ale patrząc pod kątem możliwych do zidentyfikowania obiektów biorących udział w systemie, nazywa się to IoT, Internet ,podobna sieć sieci. Ponieważ Internet przedmiotów i wszechobecne przetwarzanie danych zajmują się tym samym środowiskiem połączonych urządzeń (tj. różnego rodzaju urządzeń o różnej naturze i mocach obliczeniowych), zaufanie i bezpieczeństwo zarządzanie jest podobne do metod omówionych wcześniej. Oznacza to, że schemat opracowany dla wszechobecnego środowiska obliczeniowego może być również stosowany w większości przypadków do Internetu przedmiotów, gdy zajmowane jest zaufanie na poziomie urządzenia i bezpieczeństwo. Chociaż IoT został jasno zdefiniowany do tego czasu, Future Internet jest nadal niejasnym terminem. Przyszły Internet odnosi się zasadniczo do szerokiej gamy tematów badawczych związanych z ideą Internetu łączącego wiele urządzeń sieciowych na całym świecie. Jeśli pod koniec zostanie przedstawiony po prostu stosunkowo szybszy Internet z nowymi urządzeniami i technikami, może to być jedynie rozszerzenie obecnego Internetu. Podstawową wizją Internetu przyszłości jest jednak to, że nie jest to Internet, który widzieliśmy do tej pory; może mieć nowy sposób pracy, może mieć nową metodę łączenia urządzeń, a nawet może być kompletne podejście do rozwijania go. Ponieważ pełna definicja operacyjna nie została jeszcze sfinalizowana, zaufanie i bezpieczeństwo w Future Internet są również w fazie wstępnego badania i nie można ich wyraźnie opisać.

Bezprzewodowe sieci ad hoc i czujniki

Bezprzewodowa sieć ad hoc jest połączeniem węzłów obliczeniowych, które mogą komunikować się ze sobą bez obecności formalnej jednostki centralnej (bez infrastruktury lub półinfrastruktury) i mogą być tworzone w dowolnym miejscu i czasie. Każdy węzeł w sieci ad hoc może pełnić rolę hosta i urządzenia podobnego do routera w sieci. Mogą istnieć różne formy sieci ad hoc, takie jak mobilne sieci ad hoc (MANET), samochodowe sieci ad hoc (VANET), bezprzewodowe sieci kratowe (WMN), bezprzewodowe sieci czujników (WSN), sieci obszaru ciała (BAN), obszar osobisty sieci (PAN), itp. Chociaż wszystkie z nich zawierają pewne wspólne cechy technologii ad hoc, WSN jest siecią, o której warto wspomnieć, zwłaszcza, że ​​ten typ sieci ma dodatkową funkcję, która może mieć stację bazową, taką jak stała centrala jednostka do przetwarzania pakietów sieciowych i wszystkich innych węzłów czujnikowych w sieci mogłaby zostać wdrożona d hoc. Podstawowe cechy sieci ad hoc wymagają zaufania do inicjowania procesu komunikacji. W większości przypadków potrzebny jest pewien rodzaj przyjętego modelu, aby wprowadzić pojęcie wiary i zapewnić dynamiczną miarę wiarygodności i wiarygodności w scenariuszu ad hoc. Pomimo dodatkowej przewagi pewnego rodzaju centralnego organu w WSN (gdzie każdy uczestniczący podmiot nie jest zbyt rozproszony, jak czyste sieci ad hoc), prace badawcze związane z zaufaniem nadal wymagają konkretnych osiągnięć, aby osiągnąć zadowalający poziom. Jeśli chodzi o bezpieczeństwo, istnieją setki prac nad zarządzaniem kluczami, bezpiecznym routingiem, usługami bezpieczeństwa i systemami wykrywania włamań dla dowolnej sieci ad hoc

Chmura obliczeniowa

Przetwarzanie w chmurze to niedawno ukuty termin, w którym przetwarzanie rozproszone jest postrzegane z perspektywy świadczenia „usługi obliczeniowej”. Podstawową koncepcją przetwarzania w chmurze jest płatność oparta na wykorzystaniu zasobów i zasobach IT, które nie istnieją u użytkowników. koniec. Strategia ta umożliwia użytkownikom wykonywanie zadań za pomocą urządzeń komputerowych o ograniczonych zasobach, których wcześniej nie mogli wykonać. Aby wspierać takie rodzaje komunikacji i komputerów, istnieje wiele problemów badawczych, które należy rozważyć, aby zasoby były zarządzane w sposób wydajny i bezpieczny. W rzeczywistości dynamika usług, elastyczność i wybory oferowane przez tę wysoce skalowalną technologię są bardzo atrakcyjne dla różnych przedsiębiorstw. Te możliwości stwarzają jednak wiele wyzwań związanych z zaufaniem i bezpieczeństwem. Przetwarzanie w chmurze otworzyło nowe granice wyzwań, wprowadzając inny typ scenariusza zaufania, w którym technologia potrzebuje podstawowego zaufania uczestniczących podmiotów do rozpoczęcia funkcjonowania. Podczas gdy zaufanie może nadal być istotne dla koncepcji chmury, bezpieczeństwo stawia poważną trudność, na przykład, gdy bierze się pod uwagę uwierzytelnianie. Idea przetwarzania w chmurze polega na zachowaniu tożsamości dostawców usług w stanie pochmurnym, ale uwierzytelnienie, jako część bezpieczeństwa, wymagałoby prawidłowej identyfikacji obiektów, aby można było również zapewnić własność niezaprzeczalności. Niezaprzeczalność, w prostym znaczeniu, oznacza możliwość zapewnienia, że ​​strona w umowie lub zdarzeniu komunikacyjnym nie może zaprzeczyć autentyczności własnych wiadomości, pakietów, podpisu lub innego rodzaju dokumentu, który generuje. Te sprzeczne zasady sprawiły, że bezpieczeństwo przetwarzania w chmurze nadal stanowi bardzo trudny obszar badań. Jednym z możliwych rozwiązań jest utrzymanie pewnego rodzaju zaufanego dostawcy usług i korzystanie z nich przez zaufany serwer dostarczający usługi lub menedżera usług. Inną kwestią w tej dziedzinie jest to, jak długo należy utrzymywać ustalone zaufanie lub jak je zburzyć, zachowując nienaruszoną koncepcję chmury? (Oznacza to, że klienci nie wiedzą dokładnie, w których lokalizacjach otrzymują wymagane usługi lub w jaki sposób ich żądania zostały przetworzone.) W rzeczywistości jest to obszar, w którym zaufanie i bezpieczeństwo są ze sobą powiązane. Elementy przetwarzania w chmurze łączą się również z pojęciem Internetu przyszłości, co prowadzi do koncepcji sieci w chmurze. Stąd też postęp w dziedzinie zaufania i bezpieczeństwa w cloud computing może również przyczynić się do tych samych obszarów w przyszłości Internetu.

Sieci konwergentne nowej generacji

Zanim określimy relację między zaufaniem a bezpieczeństwem, przypomnijmy podstawową różnicę między dwoma terminami hybrydowymi i zbieżnymi. Chociaż niektóre obszary badań można podzielić na więcej podobszarów i tematów, wśród naukowców istnieje tendencja do myślenia o łączeniu różnych technologii. Termin hybryda jest powszechnie stosowany w takich przypadkach. Często ludzie mówią o połączeniu struktury fizycznej lub różnych platform urządzeń, korzyści lub usług lub cech różnych technologii, aby uzyskać system hybrydowy.

Jednak termin konwergencja sieci lub bardziej konkretnie konwergentna sieć wykracza poza pojęcie hybrydyzacji sieci lub sieci hybrydowej. W dziedzinie telekomunikacji konwergencja sieci odnosi się do świadczenia usług telefonicznych, wideo i transmisji danych w ramach jednej sieci. Tak więc, chociaż hybryda po prostu odnosi się do łączenia pozornie rozłącznych technologii / usług, konwergencja odnosi się do odpowiedniego mieszania i płynnej funkcjonalności wspólnego systemu. Dlatego sieć konwergentna wymaga jednej rury do dostarczania wszystkich form usług komunikacyjnych. Nie ma wątpliwości, że proces konwergencji sieci wynika przede wszystkim z rozwoju technologii i popytu. Jednym z głównych celów takiej integracji jest dostarczanie konsumentom lepszych usług i niższych cen. Zamiast płacić oddzielnie za każdą usługę lub technologię, użytkownicy mogą mieć dostęp do szerszego zakresu usług i wybierać spośród większej liczby dostawców usług, co uczyniłoby użytkowników głównymi beneficjentami, a także zapewniło zysk dostawcy. W rzeczywistości konwergencja umożliwia dostawcom usług przyjmowanie nowych modeli biznesowych, oferowanie innowacyjnych usług, korzystanie z ofert specjalnych i wchodzenie na nowe rynki. Inna definicja konwergencji sieci lub po prostu konwergencji może być podana jako szeroki termin używany do opisywania nowych technologii telekomunikacyjnych i architektury sieci wykorzystywanych do migracji wielu usług komunikacyjnych do jednej sieci. Oznacza to, że przyszłe sieci są również objęte tą koncepcją. W niektórych publikacjach formalna definicja sieci konwergentnej to: perspektywa ponadnarodowa, jak integracja i digitalizacja. Integracja jest tutaj definiowana jako proces pomiaru transformacji o stopień, w jakim różne media, takie jak telefon, transmisja danych i infrastruktura informatyczna, są połączone w jedną jednolitą platformę architektury sieci uniwersalnej. Cyfryzacja nie jest tak bardzo definiowana przez jej fizyczną infrastrukturę, jak przez treść lub medium. Czasami digitalizacja oznacza rozbijanie sygnałów na bajty składające się z zer i jedynek; to takie proste!

Aby rozwiązać ten problem i zrozumieć go z praktycznych perspektyw, możemy zauważyć, że podjęto wiele ostatnich inicjatyw, takich jak sieci nowej generacji (NGN) i podsystemy multimedialne IP (IMS), aby zapewnić bezproblemową architekturę dla różnych technologii dostępu, które harmonizują z cele określone przez konwergencję sieci. Oprócz innych innowacyjnych podejść, na przykład poprzez integrację różnych technologii – platform dostarczania usług (SDP) i IMS – możliwe jest teraz łatwe dostarczanie, wykonywanie i zarządzanie usługami. Inne problemy, takie jak komunikacja punkt-punkt i transmisja, usługi zorientowane na dane i multimedia, systemy mobilne i komórkowe oraz szybkie łącza światłowodowe i mobilność, pozostają trudnymi zadaniami i, co najmniej, obraz typu end-to-end to wciąż niejasne. Jak powinno do tego czasu, gdy pełny obraz nie jest jasny, ten sam rodzaj niepewności w określaniu granic zaufania i bezpieczeństwa pozostaje taki sam, jak w przypadku innych innowacyjnych technologii przedstawionych wcześniej.

Wnioski i otwarte problemy

W dzisiejszym świecie duże firmy, takie jak Amazon i eBay (lub podobne firmy) używają pewnego rodzaju systemu ratingowego, który opiera się na zaufaniu lub stanowi podstawę zaufania do produktów sprzedawanych przy użyciu tych kanałów. Bezpieczeństwo opiera się na zaufaniu i służy głównie do zezwalania na transakcje pieniężne. Zarządzanie zaufaniem w rzeczywistości jest złożoną mieszanką różnych dziedzin, jeśli weźmiemy pod uwagę technologie obliczeniowe i komunikacyjne razem. W tym rozdziale omówiono niektóre przyszłe technologie, ale istnieje wiele innych pojawiających się dziedzin, takich jak komunikacja bliskiego pola (NFC), elektroniczne zarządzanie wiedzą, sieci nanokomunikacyjne itp., Które również będą potrzebowały wsparcia zaufania i bezpieczeństwa. Naukowcy i praktycy z różnych dziedzin, takich jak sieci, sieci i przetwarzanie w chmurze, przetwarzanie rozproszone, systemy informacyjne, HCl i modelowanie ludzkich zachowań mogą być ofiarodawcami, a połączenie różnych dziedzin pod tym parasolem stanie się nieuniknione w nadchodzących dniach. Bez względu na postępy, jakie moglibyśmy osiągnąć w konkretnej skali w nadchodzących dniach, niektóre podstawowe pytania mogą wciąż pozostać takie, jak długo należy utrzymywać lub utrzymywać ustalone zaufanie w jakimkolwiek systemie komputerowym i komunikacyjnym? Jeśli potrzebne jest okresowe odświeżanie i ponowne ustanawianie zaufania, jaki może być optymalny interwał dla różnych ustawień? Czy okresowe przywracanie zaufania wpłynie na ustanowione bezpieczne kanały? Czy bezpieczeństwo będzie w stanie działać samodzielnie, gdy parametry zaufania zostaną całkowicie zignorowane? Nadal pozostaną główne pytania: czy w przyszłych technologiach innowacyjnych będą istniały wyraźne granice między zaufaniem a bezpieczeństwem, czy też należy uwzględnić zaufanie w granicach bezpieczeństwa?

TOR : Jak działa TOR?

Cebula ma wiele warstw, które chronią – i formują – warzywo.

Podobnie TOR jest siecią złożoną z kilku routerów, które służą jako „warstwy”. Podobnie jak w prawdziwym odpowiedniku etui, warstwy zewnętrzne chronią wnętrze, w Twoim przypadku Twoją tożsamość. Wyobraź sobie, że musisz wysłać paczkę z wartościową zawartością. Jak możesz zabezpieczyć ten przedmiot przed dostawą? Możesz chwycić folię bąbelkową, aby przykryć przedmiot. Następnie możesz dodać dodatkowe warstwy, aby to zapewnić integralność. TOR działa w podobny sposób. Cennym przedmiotem są Twoje dane osobowe oraz zapytania, które przesyłasz do Internetu. Aby uniknąć łatwego śledzenia, TOR kieruje przepływem informacji przez różne punkty swojej sieci. Jest to odpowiednik posiadania kilku warstw chroniących Twój identyfikator online. Węzły sieci składają się z routerów i serwerów na całym świecie. Czy to brzmi prosto? Na szczęście nie potrzebujesz specyfikacji technicznych, aby skorzystać z usługi. Teraz przeanalizujmy poziom bezpieczeństwa TOR…

Jak bezpieczny jest TOR?

W życiu nie ma nic w 100% bezpiecznego. Nawet mieszkanie pod ogromnym kamieniem nie uchroni cię całkowicie przed zagrożeniami ze świata zewnętrznego. Dlatego nie ma powodu, aby wierzyć, że TOR jest bezpieczniejszy niż inne alternatywy w każdym przypadku. Chociaż rzeczywiście wyróżnia się w regularnych zastosowaniach, na przestrzeni lat ujawniono kilka słabych punktów. Ta lista podsumowuje niektóre exploity związane z TOR:

* Podsłuch w systemie autonomicznym (AS). Każdy może szpiegować ruch przychodzący i wychodzący z sieci TOR. Dzięki zaawansowanemu śledzeniu mogą wskazać Twój identyfikator lub lokalizację. Oczywiście nie jest to możliwe, chyba że naprawdę jesteś profesjonalistą w strategiach hakerskich.

* Podsłuchiwanie węzłów wyjściowych. Węzeł wyjściowy to punkt, w którym TOR nie ma już kontroli nad informacjami przesyłanymi do serwera, czyli łączy się z dowolnym komputerem na świecie. W związku z tym ekspert może odzyskać hasła, konta e-mail itp. Z tych punktów. Oczywiście, jeśli nie użyjesz żadnego z tych wewnątrz TOR, jesteś bezpieczny i zdrowy.

* Atak analizy ruchu. Chociaż tego rodzaju atak nie ujawnia ID, mogliby zebrać informacje o użytkowniku w sieci TOR. Nie jest to jednak duży problem.

* Blok węzła wyjściowego TOR. Niektóre strony internetowe blokują użytkownikom TOR, aby uniemożliwić dostęp do ich usług bez identyfikacji siebie. Dlatego nie będziesz mógł edytować Wikipedii podczas korzystania z TOR, korzystać z odtwarzacza online BBC i tak dalej.

* Zły atak jabłka. Ta luka polega na wykorzystywaniu słabych usług, takich jak klienci P2P BitTorrent wewnątrz TOR. Dlatego nie używaj takich połączeń do „pobierania” anonimowo; zamiast tego narazisz swoją anonimowość.

* Protokoły, które ujawniają adresy IP. Oprócz BitTorrent jest więcej protokołów, które ujawniają adres IP (a tym samym Twój prawdziwy identyfikator), takie jak komunikacja z trackerem P2P, rozproszone tablice skrótów itp. Ataki te koncentrują się na lukach w zabezpieczeniach man in the middle.

* Ataki snajperskie. Co jest gorszego niż atak typu „odmowa usługi” (DDoS)? Rozproszony odpowiednik; DDoS, czyli grupowy atak na węzły wyjściowe, aby atakujący mógł stwierdzić, z których korzystasz. Działa to w „prosty” sposób: blokujesz wystarczająco dużą liczbę węzłów, tak że użytkownik TOR będzie musiał polegać na jednym z nielicznych, które nadal działają. Co dostajesz? Wyższe prawdopodobieństwo wskazania węzłów, których „używasz”; stąd większa szansa, aby dowiedzieć się, kim jesteś. Oczywiście nie jest to do końca technika laika.

* Błąd krwawienia z serca. Ten błąd ujawnił i złamał hasła w kwietniu 2014 w sieci TOR. Te protokoły zostały wkrótce dezaktywowane. Istnieje jednak szansa, że ​​w przyszłości pojawią się podobne luki, chociaż nie są one wysokie. Główną przesłanką uniknięcia takich problemów jest poleganie na usługach ukrytych;

* Odciski palców myszy. Ten jest trochę za pokręcony, ale działa. Porównanie kliknięć, które robisz w witrynie, z JavaScriptem do śledzenia ruchy myszy, ekspert udowodnił, że określenie tożsamości osoby jest „wykonalne”. Na szczęście, jeśli nie korzystasz z publicznych komputerów, to ryzyko nie jest zagrożeniem.

* Atak polegający na pobieraniu odcisków palców. Były częściowo ujawnione wiadomości luki w zabezpieczeniach związanych z odciskami palców w sieci TOR. Dlatego lepiej nie używać bio trackerów.

* Informacje o objętości. Anonimowość oferowana przez TOR nie pozwala ukryć ilości danych, które poruszasz. Dlatego jeśli jesteś pod jakimkolwiek inwigilacją, mogą śledzić Twoje kroki nawet przy użyciu TOR.

* Inny. Z biegiem czasu coraz więcej exploitów będzie się pojawiać.

Niektóre z nich zostaną natychmiast rozwiązane; inne będą trwać dłużej, ale zostaną w jakiś sposób pominięte. Oczywiście, nie ma nic lepszego niż wszechstronny, nigdy nie używany system ochrony Twojego identyfikatora online; tak jak w prawdziwym życiu. Lista może wydawać się zniechęcająca do regularnego korzystania z TZW, ale tak nie jest. Jednak pokazanie możliwych zagrożeń jest częścią moich obowiązków w tym wprowadzeniu do usługi. Morał z tej historii jest następujący: TOR nie zapewnia 100% bezpieczeństwa Twojej aktywności online; tworzy anonimowość.

Ten krok jest raczej prosty. Do korzystania z TOR potrzebna jest przeglądarka zgodna z usługą. Możesz przejść do witryny internetowej projektu TOR, aby pobrać najnowszą wersję tego narzędzia programowego. W szczególności możesz być zainteresowany korzystaniem z przeglądarki TOR; co jest prawdopodobnie wszechstronną alternatywą, aby zacząć anonimowość online. Istnieją również dodatki do innych popularnych przeglądarek, takich jak Mozilla Firefox. Jeśli jesteś już użytkownikiem Mozilli, ta opcja może Cię zainteresować. Oczywiście funkcjonalności są nieco ograniczone w porównaniu z posiadaniem przeglądarki TOR; ale prostota instalacji dodatku jest niesparowana. Jeśli chcesz poznać zalety i wady obu opcji, oto kilka wskazówek.

Lean Customer Development : Rozwój klientów to nie badania użytkowników

Twoja firma może już prowadzić badania użytkowników. Nie oznacza to, że ćwiczysz rozwój klienta. Rozwój klienta zapożycza wiele technik, które od dziesięcioleci dobrze służyły badaczom użytkowników. Ale kontekst, praktykujący i czas są bardzo różne. Badacze użytkowników często opisują swoją pracę jako „rzecznictwo użytkownika”. Niestety, w wielu firmach nadal jest postrzegany jako opcjonalny, coś, co warto zrobić, bo zachwyca klientów. Rozwój klienta to „popieranie biznesu”. Nie należy tego robić, ponieważ uszczęśliwia to klientów. To coś, co musisz zrobić, aby zbudować zrównoważony biznes, w którym ludzie otwierają swoje portfele i płacą za Twój produkt lub usługę.

Dlaczego potrzebujesz rozwoju klienta

Większość nowych produktów (i firm) zawodzi. Szanse są przeciwko tobie. Około 75% start-upów wspieranych przez venture upada. Gdziekolwiek od 40% do 90% nowych produktów nie zdobywa znaczącej popularności na rynku. Ale z pewnością uważamy, że będziemy wyjątkiem. Lubimy myśleć o budowaniu produktu jako sztuce – coś, co kieruje się naszą kreatywnością, intuicją i intelektem. Wszyscy wiemy, że istnieją dobrzy menedżerowie produktu (oraz projektanci, inżynierowie i stratedzy), a także przeciętni. Może to właśnie stanowi różnicę między nieudanym produktem a sukcesem? Niestety nie. Ogólnie rzecz biorąc, po prostu nie jesteśmy zbyt dobrzy w tworzeniu produktów i firm wyłącznie w oparciu o kreatywność, intuicję i intelekt. To nie jest tylko problem związany ze startem: w 1937 roku firmy, które tworzyły indeks S&P 500, miały średnią długość życia 75 lat; ostatnio ta liczba spadła do zaledwie 15 lat. Na mniejszą skalę też nie jesteśmy tak dobrzy, jak nam się wydaje. Większość naszych pomysłów nie zwiększa wartości dla klientów ani firm – firma Microsoft szacuje, że tylko około jedna trzecia ich pomysłów poprawia wskaźniki, które mają poprawić. Amazon testuje każdą funkcję i mniej niż 50% działa; Liczby Yammera są mniej więcej takie same. Netflix i Intuit nie mają większego odsetka sukcesów. Prawda jest taka, że ​​nie ma znaczenia, ile firmy przeprowadzają badania, jak dobrze planują, ile wydają pieniędzy ani jak sprytni są ich pracownicy: szanse, że unikną dużych błędów, są gorsze niż rzut monetą.

Nie tylko oprogramowanie

Być może przytaczam wiele firm zajmujących się oprogramowaniem, ale korzyści wynikające z redukcji ryzyka i korekty kursu są jeszcze większe dla innych firm. Linie kodu są znacznie tańsze i szybsze do zmiany niż konfiguracje produkcyjne, umowy z dostawcami i zatwierdzenia zgodności. Masz ograniczone możliwości odzyskania zaufania do usługi, która rozczarowała Twojego klienta, i nie ma możliwości zmiany fizycznego produktu, gdy trafi on w ręce klienta. Dla twórców KRAVE jerky kluczowe znaczenie miało zrozumienie, w jaki sposób klienci definiowali przekąskę premium (bez azotanów i sztucznych składników), zanim zdecydowali się na przepis i rozpoczęli masową produkcję. Dla Romotive, firmy zajmującej się produkcją robotów na smartfony do nauki, kluczowe było zrozumienie środowiska, w którym będą się poruszać ich roboty. „Robot musi mieć dobrą mobilność i przyczepność na dywanach, podłogach sprzętowych lub kratach. Poza tym dzieci upuszczają rzeczy! Wiele z tego, czego dowiedzieliśmy się o tym, jak będą działać te roboty, wpłynęło na nasze decyzje dotyczące sprzętu ”- mówi marketingowiec Charles Liu.

Ile Google wie o Tobie : Scenariusze ujawniania informacji

Pomimo naszych najlepszych intencji, wgląd można uzyskać na podstawie najbardziej nieprawdopodobnych informacji. Weźmy na przykład prosty akt zamówienia pizzy. Może się to wydawać nieszkodliwe, ale w Waszyngtonie nagły wzrost zamówień na pizzę w Białym Domu lub Pentagonie może sygnalizować poważny kryzys, jaki miał miejsce podczas wojny w Zatoce Perskiej i skandalu z Monicą Lewinsky. Nie tylko zamawiając pizzę, codziennie przez lata ujawniamy poufne informacje o sobie, naszych znajomych i pracodawcy. Podobnie, internet zawiera dodatkowy zbiór informacji, które można przechwycić za pomocą Googlebota lub innych robotów internetowych, skryptów indeksujących strony internetowe i dodać do równania. Z tych źródeł firmy internetowe wiedzą bardzo dużo o naszym życiu, od najmniej znaczących aspektów po najważniejsze kryzysy osobiste. Rozważ następujące przykłady.

* Dział badań Twojej firmy odkrywa nową technologię. Korzystają z bazy patentów Google, aby wyszukać wszelkie powiązane patenty. (Nie wybrali witryny Urzędu Patentów i Znaków Towarowych Stanów Zjednoczonych, ponieważ woleli łatwość obsługi Google). Ich wyszukiwania (w tym udane i nieudane) ujawniają główne idee nowej technologii.

* Grupa wsparcia AIDS wybiera nowe miejsce spotkania. Organizator wysyła e-mail z linkiem do wskazówek dojazdu w Mapach Google do wszystkich członków grupy korzystających z jego konta Gmail. Ujawnił całą przynależność do grupy (za pośrednictwem adresów e-mail), temat spotkania (w treści swojego e-maila) oraz adresy IP wszystkich członków, którzy klikną w link. Ponadto identyfikujące pliki cookie były prawdopodobnie umieszczane na komputerze każdego członka, gdy odwiedzał on witrynę. Późniejsze wyszukiwania tej samej lokalizacji mogą wskazywać na nowych członków grupy.

* Firma przeżywa ciężkie chwile. Pracownicy potajemnie zaczynają używać swoich komputerów do wyszukiwania ofert pracy i wiadomości o swoim pracodawcy.

* Firma planuje rozpocząć nową inicjatywę strategiczną. Firma przez trzy miesiące bada producentów z małej prowincji w Chinach za pomocą Google.

* Mężczyzna szuka nazwy okładki wrażliwego projektu. Nie odkrywając nazwiska w wynikach wyszukiwania, kontynuuje poszukiwania powiązanych tematy.

* Kobieta zajdzie w ciążę. Szuka nazwisk położników i dzieci. Później szuka klinik aborcyjnych. Dwa tygodnie później szuka poradni.

* Organ ścigania korzysta z wyszukiwarki internetowej, aby sprawdzić tło potencjalnych klientów i anonimowych źródeł większości ich aktywnych spraw.

* Haker szczyci się anonimowością swojego uchwytu. Jego zdjęcie i prawdziwe imię nie są dostępne w internecie. Fan jego pracy słyszy jego nazwisko na konferencji i tego wieczoru szuka witryny internetowej hakera, używając zapytania zawierającego zarówno prawdziwe imię hakera, jak i jego pseudonim.

* Badacze złośliwego oprogramowania w firmie zajmującej się bezpieczeństwem są dumni z tego, że zgromadzili największą liczbę nieujawnionych luk w zabezpieczeniach. Często używają Google do badania każdej nowej luki w zabezpieczeniach i potwierdzania, że ​​nie została odkryta.

* Firma zatrudniająca pracowników mobilnych decyduje się umieścić swoje księgi finansowe w arkuszu kalkulacyjnym Google, aby przedstawiciele handlowi mieli dostęp do plików  z całego świata.

* Mężczyzna rozwija możliwe objawy raka płuc. Prowadzi poszukiwania dotyczące choroby. Później szuka informacji o ośrodkach leczenia raka w okolicy. Sześć miesięcy później jego żona szuka domów pogrzebowych.

Ta lista może trwać wiecznie. Niezależnie od tego, czy próbujesz chronić własność intelektualną firmy, czy tylko prywatność swojego życia osobistego, kluczową ideą jest to, aby nie lekceważyć znaczenia ujawnianych informacji, szczególnie w czasie. Im lepiej rozumiesz tę wartość, tym lepiej możesz ocenić akceptowalne ryzyko podczas korzystania z różnych typów narzędzi internetowych. Należy zauważyć, że lista ta obejmuje niewinne zastosowania narzędzi internetowych. Równie łatwo mogłem uwzględnić kontrowersyjne lub przestępcze zastosowania, takie jak pedofile szukający wrażliwych dzieci, terroryści dzielący się instrukcjami dotyczącymi produkcji bomb, seryjni mordercy badający, jak ukryć swoje ślady, lub handlarze narkotyków komunikujący się z dostawcami. Te rzadkie scenariusze są często wykorzystywane przez rządy i inne podmioty jako narzędzie public relations, aby zagrozić prywatności przestrzegających prawa użytkowników Internetu, takich jak ci z poprzedniej listy.

Ciemna Strona Neta : Od koktajli mlecznych po koktajle Mołotowa

Pochwała Jareda Cohena dla organicznej zdolności Facebooka do promowania demokracji może być tylko stwierdzeniem faktów. Jeśli wszystko inne jest równe, świat, w którym tak wielu Chińczyków i Irańczyków gromadzi się w usługach amerykańskich firm technologicznych, może rzeczywiście być światem, w którym demokracja ma większe szanse na zwycięstwo w dłuższej perspektywie. Trudno się nie zgodzić z tym stwierdzeniem, zwłaszcza jeśli inną alternatywą jest skłonienie tych użytkowników do wyboru krajowych usług internetowych; te są zazwyczaj znacznie bardziej kontrolowane i cenzurowane. Mimo to ważne jest, aby nie tracić z oczu faktu, że obecna sytuacja nie jest wynikiem jakiejś przebiegłej i niezwykle skutecznej amerykańskiej strategii wykorzystywania Facebooka. Jest to raczej rezultat ówczesnych warunków intelektualnych i rynkowych. Do niedawna autorytarne rządy po prostu nie zwracały uwagi na to, gdzie ich obywatele decydują się na wysyłanie e-maili i udostępnianie przepisów na makaron; Amerykańskie firmy często jako pierwsze oferowały swoje doskonałe usługi, a większość rządów nie zadała sobie trudu, aby tworzyć jakiekolwiek bariery. Być może byli podekscytowani sukcesem amerykańskich platform w przeciwieństwie do lokalnych start-upów internetowych, ale potem ich krajowy przemysł fast food również ustępował miejsca McDonald’s; Dopóki nikt nie mógł pomylić potrójnie gęstego koktajlu waniliowego McDonald’s z koktajlem Mołotowa, nie było się czym martwić. Niemniej jednak, gdy tacy ludzie jak Jared Cohen zaczną chwalić Facebooka jako organiczne narzędzie promowania demokracji, natychmiast przestaje nim być. W pewnym sensie jedynym powodem tak dużej swobody w regulacji usług internetowych działających w państwach autorytarnych było to, że ich przywódcy nie widzieli oczywistego związku między interesami biznesowymi firm amerykańskich a interesami politycznymi rządu amerykańskiego. Ale ponieważ Departament Stanu próbuje zebrać owoce sukcesu Doliny Krzemowej na globalnym rynku, nieuniknione jest, że wcześniej beztroskie postawy ustąpią miejsca wzmożonej podejrzliwości. Wszelkie wyraźne posunięcia amerykańskich dyplomatów w tej przestrzeni będą uważnie obserwowane. Co więcej, będą interpretowane zgodnie z powszechnymi teoriami spiskowymi, a nie w świetle przestarzałych komunikatów prasowych wydanych przez Departament Stanu w celu wyjaśnienia jego działań. W lipcu 2010 r. Chińska Akademia Nauk Społecznych, jedna z najlepszych organizacji badawczych rządu chińskiego, opublikowała szczegółowy raport o politycznych implikacjach Internetu. Argumentował, że serwisy społecznościowe zagrażają bezpieczeństwu państwa, ponieważ Stany Zjednoczone i inne kraje zachodnie „używają ich do podsycania niestabilności”. Trudno nie postrzegać tego jako bezpośredniej odpowiedzi na słowa i czyny Jareda Cohena. (Chiński raport cytuje anonimowych urzędników amerykańskich, którzy twierdzą, że portale społecznościowe są „nieocenionym narzędziem” do obalenia obcego rządu i dobrze wykorzystał zaangażowanie rządu USA za pośrednictwem Twittera w irańskie niepokoje w 2009 r.) Kiedy amerykańscy dyplomaci nazywają Facebooka narzędziem jeśli chodzi o promocję demokracji, można bezpiecznie założyć, że reszta świata wierzy, że Ameryka chce wykorzystać to narzędzie w pełnym zakresie, a nie tylko patrzeć na nie z podziwem. Amerykańscy dyplomaci niesłusznie traktują Internet, jak im się wydaje, rewolucyjny, jako przestrzeń wolną od narodowych uprzedzeń. Cyberprzestrzeń jest znacznie mniej podatna na amnezję polityczną, niż sądzą; wcześniejsze błędy polityczne i długoletnia historia wzajemnych wrogości między Zachodem a resztą nie zostaną tak łatwo zapomniane. Nawet w erze cyfrowej polityka zagraniczna kraju jest nadal ograniczona przez ten sam zestaw raczej nieprzyjemnych barier, które ograniczały ją w analogowej przeszłości. Jak wskazali ponad dziesięć lat temu Joseph Nye i Robert Keohane, dwaj czołowi badacze stosunków międzynarodowych, „informacja nie płynie w próżni, ale w przestrzeni politycznej, która jest już zajęta”. Aż do wydarzeń w Iranie, amerykańscy giganci technologiczni mogli rzeczywiście funkcjonować w większości apolitycznej próżni i oszczędzono im wszelkich uprzedzeń, które można nazwać „Amerykaninem”. Jednak takie dni wyraźnie się skończyły. Na dłuższą metę odmowa uznania tej nowej rzeczywistości tylko skomplikuje zadanie promowania demokracji

Audyt Umysłu Hackera : Awarie istniejących modeli

Charakterystyka cyberprzestępców jako całości jest dość obszernym tematem i stworzyłaby niewykonalną sytuację, gdybyśmy spróbowali rozwiązać problem charakteryzacji poprzez stworzenie jednej dużej miary zaprojektowanej tak, aby uwzględnić wszystkie możliwe dane. Wcześniejsze próby zrozumienia ogromnej ilości danych dotyczących przeciwników zakończyły się niepowodzeniem. Być może głównym powodem tego niepowodzenia jest po prostu tyle potencjalnie znaczących danych, które należy wziąć pod uwagę i tak wiele perspektyw, że niezwykle łatwo jest stracić koncentrację na danych, które mają znaczenie, a nawet na tym, co faktycznie próbujesz osiągnąć. Co my tu wszyscy robimy? Jaki jest wspólny cel, który nas łączy i jak to, co wymyśli jeden z nas, co na pierwszy rzut oka może odnosić się tylko do jego indywidualnych praktyk zawodowych, może pomóc drugiemu? Problem polega na tym, że ten sposób myślenia jest zdecydowanie zbyt wysoki; aby odpowiedzieć na te pytania, potrzebny jest niższy poziom myślenia. Odpowiedzi na te pytania powinny stać się oczywiste i są one dość proste. Pod koniec dnia, bez względu na to, czego użyjesz do charakteryzacji – czy osiągnąć wyższy poziom bezpieczeństwa podczas projektowania oprogramowania, aby uzyskać dokładniejszą ocenę zagrożeń sieciowych, w celu ulepszenia analizy incydentów lub wykrycia zagrożenia wewnętrznego – grupa, którą próbujemy scharakteryzować, pozostaje taka sama, a właściwości tej grupy pozostają takie same, a zatem zestaw wskaźników charakterystycznych wymaganych do oceny wspomnianych przeciwników / grup. Podsumowując, zestaw wskaźników do oceny indywidualnych właściwości przeciwnika oraz metodologia oceny znaczących relacji między tymi miernikami pomogłyby w charakteryzacji w prawie każdych okolicznościach. Niektóre z problemów napotkanych przy próbach radzenia sobie z danymi kontradyktoryjnymi na inne sposoby omówiono w kolejnych sekcjach.

Duże ilości danych

Podczas próby ukończenia charakteryzacji należy lub przynajmniej można wziąć pod uwagę ogromne ilości danych dotyczących przeciwników. Często wiele z tych danych w swojej surowej postaci jest mało przydatnych dla osoby próbującej wykonać charakterystykę i robi niewiele więcej niż prezentowanie się jako „biały szum” wokół danych, które w rzeczywistości coś znaczą. Ze względu na często duże ilości danych, dane muszą być kategoryzowane i przypisywane właściwościom przeciwnika, abyśmy mieli szansę je zrozumieć, a gdybyśmy podjęli próbę jakiejkolwiek szczegółowej charakterystyki, duże ilości danych uniemożliwiłyby to bez takiej metodologii.

Kwestie istotności danych

Niektóre rodzaje danych charakteryzujących mają często znaczenie tylko w określonych przypadkach. Rzeczywiście, dostępne dane dotyczące podmiotu będą się różnić w zależności od przypadku. Z tego powodu użycie jednej miary i brak metodologii w celu rozbicia indywidualnych właściwości przeciwnika prawdopodobnie spowodowałoby, że pewna ilość danych podmiotu nie miałaby związku z twoją sytuacją, potencjalnie wypaczając ostateczny wynik. Na przykład podczas charakteryzowania teoretycznego typu przeciwnika na potrzeby oceny zagrożenia mogą nie być dostępne żadne dane kryminalistyczne z rzeczywistego ataku, ponieważ nie wystąpił żaden incydent. Ponieważ pojedyncza metryka charakteryzacji musiałaby uwzględniać dane incydentu kryminalistycznego, spowodowałoby to pozostawienie czarnej dziury w środku metryki, ponieważ zależność metryki nie została spełniona. Co więcej, przewidywanie rodzaju danych kryminalistycznych, które mogą być dostępne, byłoby trudnym zadaniem. Jak już powiedzieliśmy, wiele danych, które należy wziąć pod uwagę w celu dokładnego scharakteryzowania, jest często mało przydatnych w ich surowej postaci – innymi słowy, bez żadnych badań pomocniczych lub miernika oceny danych, aby nadać im pewne znaczenie. Na nasze potrzeby tego typu dane nazywamy danymi analogowymi. Przykładem takich danych analogowych jest próba profilowania osoby poprzez system operacyjny, z którego korzysta. Chociaż te informacje mogą być przydatne same w sobie, bez oceny danych lub dodatkowych danych badawczych, są one mało przydatne.

Ponieważ mamy tu do czynienia z profilowaniem prawdziwych ludzi, a nie sztucznych sieci neuronowych, wszystkie dane związane z właściwościami przeciwnika są zwykle analogowe. Typy „danych cyfrowych” są prawie zawsze spotykane podczas przetwarzania danych analogowych za pomocą metryki oceny pewnego rodzaju danych . Na przykład stawiamy hipotezę, że poprzez ocenę narzędzi, których atakujący używa, próbując naruszyć system (typ danych analogowych) za pomocą metryki charakteryzacyjnej, powstaje „wynik” typu całkowitego, który może być reprezentatywny dla zagrożenie, jakie jednostka stwarza dla określonego zasobu – a nawet poziomu umiejętności. Niezależnie od tego, czy ta ocena jest prawdziwa, czy nie, chodzi o to, aby dowolne dwa wyniki „cyfrowe” były ze sobą bezpośrednio porównywalne; gdzie nie są to dane analogowe, od których zaczynaliśmy, co wzmacnia argumenty przemawiające za stosowaniem wielu metryk do oceny różnych właściwości cyberprzestępcy, zamiast próbować rozwiązać problem jako całość.

Zaufanie w Cyberspace : Restrykcyjny model bezpieczeństwa

Ograniczający model bezpieczeństwa jest w zasadzie koncepcją stosowaną dla sieci o dowolnej wielkości. Ideą tego jest to, że w sieci stosowany jest restrykcyjny zestaw reguł, który może mieć znaczenie dla różnych rodzajów węzłów i graczy w sieci. Jako ogólne ograniczenie polityki bezpieczeństwa każdy z uczestników może być traktowany jako uprawniony podmiot, chyba że zostanie udowodniony jako nieuczciwa jednostka w sieci.

Zaufanie i bezpieczeństwo oparte na reputacji

Teraz dowiedzmy się więcej o zaufaniu. Ponieważ ustanowienie zaufania wymaga długotrwałej obserwowanej analizy behawioralnej jednostki (w większości naszych postrzeganych domen), powszechnie stosowaną techniką jest nadanie pewnego rodzaju reputacji każdej uczestniczącej jednostce w systemie. Wartość ta wzrasta wraz z wiarygodnym wkładem podmiotu (tj. urządzenia lub sprzętu lub użytkownika lub klienta) w system, podczas gdy zmniejsza się wraz z niewłaściwym lub podejrzanym zachowaniem. Reputacja może być analizowana przy użyciu różnych metod: czasami wykorzystywane są informacje równorzędne, czasami przechowywane są jakieś informacje regionalne, innym razem wiedza globalna jest wykorzystywana do systemów o mniejszej skali w celu utrzymania wartości reputacji i tak dalej. Różne prace wspomniały o użyciu teorii gier, model prawdopodobieństwa, logika rozmyta i inne techniki (np. rozproszone zarządzanie reputacją przy użyciu macierzy reputacji dla analiza reputacji). Podobnie jak w przypadku zaufania opartego na reputacji, zabezpieczenia oparte na reputacji wykorzystują podobny pomysł utrzymania reputacji urządzeń komputerowych i komunikacyjnych na akceptowalnym poziomie, ale różnica polega na tym, że jest ona ukierunkowana na utrzymanie ochrony wystarczającej do spełnienia aspektów bezpieczeństwa w poziom operacyjny systemu. Często zaufanie pozostaje jako opakowanie, a bezpieczeństwo ma większe znaczenie dla rzeczywistej implementacji niektórych kroków komunikacji przy użyciu zdobytej reputacji

TOR : Kiedy nie używać TOR?

Zachowanie anonimowości to nie to samo, co bezpieczeństwo w Internecie. W końcu sieć TOR jest daleka od idealnego rozwiązania w bardzo konkretnym scenariuszu; jest to projekt wciąż rozwijany. Aby skorzystać z TOR, potrzebujesz przeglądarki obsługującej ten protokół. Protokół nie został jeszcze zepsuty, ale przeglądarka jest tutaj najsłabszym ogniwem. Przeglądarka to program, który współdziała z użytkownikiem i siecią online. Niestety jest poddawany exploitom, na których ktoś inny może zyskać. Niedawno ogłoszono, że NSA jest w stanie odsłonić użytkownika sieci TOR. Oczywiście nie możesz obstawiać swoich szans na ucieczkę przed władzami za pomocą tej sieci. W związku z tym nielegalne zastosowania nie są „bezpieczniejsze” ani poza zasięgiem radaru, gdy aktywujesz TOR. Po prostu utrudniasz władzom kontakt z tobą; a i tak ostatecznie odniosą sukces. TOR nie jest narzędziem do zostania przestępcą; nie może być używane do celów niezgodnych z prawem. Nieprawidłowa manipulacja siecią zagraża społeczności TOR na całym świecie. Ta lista podsumowuje niektóre niezalecane zastosowania TOR:

* Anonimowe pobieranie dużych plików. Powód: najprawdopodobniej użyjesz P2P, takiego jak Torrent. W związku z tym spowolnisz połączenie wszystkich, aby nie uzyskać żadnych korzyści, tj. władze będą w stanie śledzić Twój rekord pobierania.

* Próba uniknięcia inwigilacji ze strony NSA. Powód: nie próbuj tego. To nie jest skuteczne w ten sposób. Po prostu nie.

* „Zabezpieczanie” Twojej aktywności online w sieciach społecznościowych. Powód: logiczną niespójnością jest korzystanie z usług wymagających Twojego dowodu tożsamości i jednoczesne staranie się zachować anonimowość, nie sądzisz? Poza tym nie będziesz w tym bezpieczniejszy; będziesz w równym stopniu narażony na eksploatację usługi.

* Nie powinieneś próbować wchodzić na oficjalne strony (rządowe lub podobne). Powód: każda osoba, która żąda takich usług, potrzebuje identyfikacji.

* Nielegalne wykorzystanie (pornografia dziecięca, nieautoryzowane zakupy, handel narkotykami itp.). Oczywiste powody: moralna niepoprawność i ściganie. Chociaż te zastosowania są powszechne z oczywistych powodów, są one nielegalne i mogą prowadzić do ścigania i więzienia bez ostrzeżenia. Środowisko TOR bardzo ułatwia korzystanie z przeglądarki do tych celów, ale nie były to zamierzone zastosowania TOR.

Jak widać, istnieje kilka scenariuszy, w których TOR jest rozwiązaniem Twoich problemów. Jednak w niektórych przypadkach nie zaleca się korzystania z tej usługi, aby nie przyciągać niepotrzebnej uwagi władz; pod warunkiem, że NSA i FBI obserwują jakiekolwiek podejrzane zachowanie w tej sieci. Odpowiedzialne korzystanie z TOR jest zawsze zalecane i jest to Twoja własna odpowiedzialność. Przyjrzyjmy się bardziej szczegółowo, jak działa ta cała sieć serwerów.

Lean Customer Development : Rozwój klienta nie zastępuje zarządzania produktam

Niektórzy ludzie sprzeciwiają się: „Cóż, co pozostało do zrobienia menedżerom produktu?” Rozwój klienta nie zastępuje wizji produktu. Rozmowa z klientami nie oznacza, że pytasz ich, czego chcą i wszystko zapisujesz. Zarządzanie produktem wymaga zdyscyplinowanego podejścia do gromadzenia informacji z różnych źródeł, podejmowania decyzji, na których elementach należy działać, oraz ustalania, jak ustalić ich priorytety. Rozwój klienta po prostu dodaje dwa elementy: zobowiązanie do formułowania hipotez i kwestionowania ich oraz zobowiązanie do dokładnego poznania problemów i potrzeb klientów. Rozwój klienta nie daje odpowiedzi na wszystkie pytania. Chociaż może zastąpić wiele twoich założeń rzeczywistymi informacjami, nadal wymaga zdyscyplinowanego menedżera produktu, aby zdecydować, które informacje mają działać, jak nadać im priorytety oraz jak wykorzystać to, czego się nauczyłeś i przekształcić to w funkcję, produkt lub firmę.