Lean Customer Development : Jak poprawiamy nasze szanse?

Po części zwiększamy nasze szanse, przyjmując ideę, że tworzenie produktów to systematyczny, powtarzalny proces. Istnieją narzędzia, których możesz użyć, niezależnie od wielkości, dojrzałości lub branży firmy, aby zwiększyć swoje szanse na sukces. Rozwój klienta jest jednym z takich narzędzi. Ćwicząc rozwój klienta jako równoległy proces w połączeniu z rozwojem produktu, możesz znacznie zmaksymalizować swoją naukę i zmniejszyć ryzyko. Diagram po lewej stronie rysunku to pętla sprzężenia zwrotnego Build-Measure-Learn.

Ma na celu opisanie, w jaki sposób Twoja organizacja powinna nieustannie się uczyć i dostosowywać w oparciu o nowe informacje, które uzyskujesz podczas pomiaru wyników i uczenia się od klientów. Schemat po prawej stronie, pętla Think-Make-Check, jest odmianą wymyśloną przez CEO LUXr Janice Fraser.

Co za różnica? To tylko punkt wyjścia. Nie musisz zaczynać od fazy tworzenia – w rzeczywistości robienie tego jest często kosztownym sposobem eksperymentowania. Rozwój klienta jest ważną częścią fazy Think. Pozwala na eksplorację i iterację w najtańszej fazie rozwoju – przed napisaniem kodu lub utworzeniem makiet. Rozwój klienta dostarcza informacji niezbędnych do zbudowania najlepszego możliwego pierwszego przypuszczenia, które następnie zweryfikujesz. Mówiłem o tym, żeby dowiedzieć się więcej i zmniejszyć ryzyko – to cenne korzyści, ale nie wydają się zbyt namacalne. Co jeszcze zyskasz ćwicząc rozwój klienta?

  • Uzyskasz bogatszy obraz swojego klienta i konkurencji (nie tylko firmy i produkty, ale także utrwalone nawyki i procedury)
  • Odkryjesz nowe możliwości zróżnicowania
  • Zmniejszysz ilość produktu, który musisz zbudować

Tak, zgadza się: prawie na pewno skończysz pisać mniej kodu! To konsekwentna korzyść, którą słyszałem od zespołów programistów: możliwość jeszcze mniejszego minimalnego opłacalnego produktu (MVP). Rozmawiając z klientami, często przekonasz się, że klienci naprawdę chcą tylko dwóch z pięciu funkcji, o których myślisz, że potrzebujesz (i mogą chcieć jeszcze jednej, o której nie pomyślałeś).

Wszystko, co wiesz, jest złe

Cóż, niezupełnie. Ale jako ludzie podlegamy wielu błędom poznawczym: nasze mózgi idą na skróty, które uniemożliwiają nam postrzeganie świata takim, jakim jest naprawdę. Zwykle działamy tak, jakbyśmy zwykle mieli rację, i interpretujemy neutralne lub niejednoznaczne dowody jako wspierające nasze przekonania, a nie kwestionujące je. Nazywa się to błędem potwierdzającym i jest odpowiedzialne za ogromny procent awarii produktów. Błąd potwierdzający to nasza wrodzona skłonność do zwracania większej uwagi na informacje, które potwierdzają nasze przekonania. Jest bardziej prawdopodobne, że ignorujemy lub bagatelizujemy fakty, które są sprzeczne z naszymi przekonaniami, lub interpretujemy subiektywne informacje w sposób sprzyjający temu, w co chcemy wierzyć. Nie robimy tego, ponieważ jesteśmy złymi lub egoistycznymi ludźmi; to jest to, co nasze mózgi naturalnie chcą robić. Niestety prowadzi nas to do subtelnego sabotowania siebie: ignorowania osoby, której opinia jest sprzeczna z jednym z naszych głównych założeń lub odrzucania osoby jako głupiego użytkownika, ponieważ nie rozumie lub nie ceni naszego produktu. Pokonanie uprzedzeń poznawczych jest trudne. Pomocne jest po prostu zapisywanie rzeczy. Dzięki obiektywnemu dokumentowaniu naszych założeń, a także informacji, które otrzymujemy od klientów, łatwiej jest dostrzec rozbieżności i zauważyć, kiedy dowody dowodzą, że się mylimy

Ile Google wie o Tobie : Trend z dala od pulpitu

Problem ujawniania informacji przez Internet jest potęgowany przez ogólną tendencję do odchodzenia od aplikacji desktopowych na rzecz aplikacji internetowych. W pierwszych dziesięcioleciach rewolucji komputerów osobistych poszczególne komputery stają się coraz bardziej wydajne, zarówno pod względem surowej mocy obliczeniowej, jak i miejsca na dysku twardym. Z drugiej strony dostęp do sieci był powolny lub nie istniał. W rezultacie królowały aplikacje desktopowe. Być może najlepszym przykładem jest pakiet Microsoft Office działający w systemie Microsoft Windows. Powstanie sieci World Wide Web w połączeniu z łatwym dostępem do zawsze działającego szybkiego Internetu zmieniło krajobraz. Użytkownicy nie są już przywiązani do dużych aplikacji komputerowych i monolitycznych systemów operacyjnych. Dobrze zaprojektowane aplikacje internetowe zaczynają teraz zastępować swoje odpowiedniki na PC. Widzimy teraz wczesne dudnienia tego trendu. Firma Google opracowała lub nabyła internetowe zamienniki oprogramowania do edycji tekstu, poczty e-mail, kalendarzy, arkuszy kalkulacyjnych i prezentacji. Dodatkową korzyścią jest to, że tacy użytkownicy mogą uzyskać dostęp do swoich danych z dowolnego miejsca na świecie. Do pracy potrzebują tylko przeglądarki i połączenia internetowego. Przeglądarki istnieją dla wszystkich głównych systemów operacyjnych, więc staje się coraz bardziej zablokowane w danym systemie operacyjnym coraz bardziej nieistotne. Chociaż w przypadku aplikacji komputerowych aktualizacje zwykle występują rzadko, scentralizowane aplikacje internetowe mogą być aktualizowane w sposób ciągły. Jedną z największych przeszkód we wdrażaniu aplikacji internetowych jest konieczność zapewnienia wyjątkowo niezawodnej łączności sieciowej, która jeszcze nie została osiągnięta, ale z każdym dniem staje się coraz bardziej rzeczywistością. Kolejnym poważnym problemem jest bezpieczeństwo. Umieszczając aplikacje i ich pliki danych na scentralizowanych serwerach, tracimy kontrolę nad naszymi danymi. Krytyczne informacje, które kiedyś były bezpiecznie przechowywane na naszych komputerach osobistych, obecnie znajdują się na serwerach firm internetowych. W przeszłości posiadaliśmy całą aplikację na naszych maszynach i mogliśmy z niej korzystać tak długo, jak chcieliśmy. Dzięki aplikacjom internetowym możemy narazić się na ryzyko zarówno dostępu do aplikacji, jak i naszych danych, oddając je w ręce osoby trzeciej.

Zaufanie w Cyberspace : Chmura obliczeniowa: problemy z zaufaniem, wyzwania i rozwiązania

Co to jest zaufanie?

Definiowanie zaufania

Istnieje wiele definicji zaufania; jednak wymieniliśmy niektóre z ważnych, które są następujące:

Jest to odsetek, w jakim jedna strona spełnia oczekiwania drugiej strony.

Jest to stopień, w jakim pierwsza strona zachowuje się dokładnie tak, jak oczekiwano od drugiej. Jeśli stopień jest wysoki, reprezentuje

większe zaufanie do pierwszej strony przez drugą. W dziedzinie bezpieczeństwa zaufanie działa jako ważny parametr określający model zagrożenia systemu.

Jest reprezentowany w postaci modelu zaufania. Można to również określić jako zaufanie.

Zwykle jest to relacja binarna między dwoma podmiotami. Ustala się ją między dwoma podmiotami na podstawie pewnych wspólnych atrybutów, w odniesieniu do których analizuje się i mierzy zaufanie.

Modelowanie zaufania

Modelowanie zaufania to technika używana do oceny zaufania systemu. Modelowanie zaufania identyfikuje problemy, które mogą wpływać na zaufanie systemu, i pomaga w identyfikacji punktów, w których niski stopień zaufania może obniżyć użyteczność systemu. Pomaga zidentyfikować środki, które można zastosować w systemie, aby uczynić go bardziej godnym zaufania dla użytkowników końcowych.

Możemy uogólnić koncepcję modelowania zaufania, biorąc pod uwagę przykład. Weźmy na przykład uniwersytet przekazujący końcowe prace egzaminacyjne do stowarzyszonej z nią uczelni. Uniwersytet ustanowił nowy program, w którym przesyłają arkusze egzaminacyjne do kolegiów za pośrednictwem zwykłego systemu komunikacji e-mailowej. Praca z danego przedmiotu jest wysyłana wraz z odpowiednimi identyfikatorami, które są następnie odbierane na drugim końcu i drukowane dzień przed egzaminem końcowym. Dwie strony komunikują się ze sobą za pośrednictwem podstawowego systemu dostarczania poczty e-mail. Uniwersytet i kolegia dysponują wystarczającymi technikami bezpieczeństwa, aby zapewnić, że uczelnia wydrukuje tylko te dokumenty egzaminacyjne, które są wysyłane z uniwersytetu, bez wycieku informacji. Cały system jest uzależniony od zaufania do systemu dostarczania poczty elektronicznej (dostawcy usług pocztowych). System komunikacji e-mail, który zachowuje się zgodnie z oczekiwaniami uniwersytetu (terminowe dostarczanie wiadomości i brak fałszowania, fałszowania lub wycieku informacji) będzie miał większe zaufanie w porównaniu z innymi systemami dostarczania poczty e-mail, które nie mogą zapewnić oczekiwanych usług. Stąd w tym przypadku atrybuty, na podstawie których można analizować zaufanie dostawcy usług e-mail, są następujące:

  1. Wyciek informacji
  2. Terminowe dostarczenie wiadomości
  3. Dostępność schematów fałszowania i wykrywania oszustw
  4. Integralność wiadomości

Jeśli jakiś system dostarczania poczty e-mail może zapewnić uniwersytet o tych oczekiwanych behawioralnych atrybutach usług, uniwersytet będzie miał większe zaufanie do dostawcy, a tym samym będzie miał większe zaufanie do świadczonych przez siebie usług. Ale pytania są następujące: W jaki sposób zapewnienie oczekiwanych usług jest spełnione przez dostawcę? W jaki sposób dostawca upewni się, że arkusze egzaminacyjne dotrą do uczelni zgodnie z oczekiwaniami? W jaki sposób wyprzedzi wszystkie inne konkurencyjne systemy dostarczania poczty, aby uzyskać ofertę od uniwersytetu? Osiąga się to poprzez zrozumienie wymagań zaufania dla systemu. Spełniając niezbędne atrybuty systemów w znany i standardowy sposób oraz przy użyciu zaawansowanych technologii i projektów architektonicznych, system zyska cenne zaufanie klienta. Na przykład, teraz w tym przypadku, jeśli system dostarczania poczty może udowodnić uniwersytetowi, że używa 256-bitowego połączenia SSL (Secure Sockets Layer) do szyfrowanej komunikacji wiadomości i nie przechowuje żadnej części wiadomości w postaci zwykłego tekstu uczelnia może zapewnić, że nie dojdzie do wycieku informacji, ponieważ dane są silnie zaszyfrowane. System poczty e-mail może również pokazać, że dołącza skrót wiadomości i sprawdza go na drugim końcu; w związku z tym nie można fałszować danych i dlatego mają mechanizmy zapewniające integralność wiadomości. Można również wykazać, że używają one uwierzytelniania protokołu SMTP (Simple Mail Transfer Protocol) i mogą zidentyfikować każdą sfałszowaną komunikację przechodzącą z innych stron. Terminowość można zapewnić, wysyłając wiadomość e-mail o niepowodzeniu w ciągu kilku minut po niepowodzeniu wysłania wiadomości, aby uczelnia mogła podjąć odpowiednie działania w celu dostarczenia dokumentów egzaminacyjnych w odpowiednim czasie, zamiast zakładać, że dotarły one bezpiecznie do dodbiorcy. Zaufanie jest definiowane hierarchicznie w każdym systemie. Jednak zaufanie do podmiotu zewnętrznego, który jest medium komunikacji e-mailowej, jest mniejsze, ale nawet duże zaufanie do podmiotu zewnętrznego nie oznacza, że ​​cały system jest całkowicie bezpieczny. Na przykład to uczelnia jest odpowiedzialna za to, aby osoby odpowiedzialne za przesyłanie odpowiednich dokumentów egzaminacyjnych za pośrednictwem zaufanego środka komunikacji e-mail. Ponieważ osoby odpowiedzialne za przesłanie poprawnych prac egzaminacyjnych są wewnętrznymi uczelniami, mają większy poziom zaufania w porównaniu z podmiotem, którego usługi są wykorzystywane zewnętrznie do wykonania usługi. W związku z tym poziom zaufania systemu do różnych podmiotów różni się w zależności od podmiotu, jego typu i oceny ich oczekiwanego zachowania. Następne pytania, które przychodzą na myśl, to: Dlaczego zależy nam na zaufaniu? Jaka jest rola zaufania i model zaufania, o którym mówimy? Dlaczego oceniamy zaufanie i jaka pomoc będzie dla nas w określaniu aspektów bezpieczeństwa systemu? Ocena zaufania pomaga w opracowaniu modelu zaufania, który reprezentuje hierarchiczne zaufanie do różnych elementów systemu. Model zaufania identyfikuje różne obszary systemu oraz zaufanie, jakiego jednostka oczekuje od innych podmiotów. Ocena tego modelu zaufania pomaga w określeniu zaufania do jednostek systemu. Model zaufania reprezentuje te główne obszary systemu, w których w przypadku utraty zaufania system byłby podatny na szereg zagrożeń. Na przykład, model zaufania systemu omówiony powyżej będzie opisywał zewnętrznego dostawcę usług e-mail, aby zapewnić wyższy poziom zaufania dla całego systemu, aby utrzymać się i zachowywać tak, jak powinien. Jeśli jednostki mają do siebie większe zaufanie i jeśli go przestrzegają, system ma działać w najlepszy możliwy sposób. Omawiany przez nas przykład służy do szybkiego opisu zaufania i jego znaczenia. Przez jednostki będziemy odnosić się do dostawców, użytkowników lub systemów obliczeniowych i podsystemów w oparciu o kontekst. Naszym głównym celem będzie rozważenie aspektów przetwarzania w chmurze i zidentyfikowanie potrzeby zaufania do niej. Omówimy również to, co zostało zrobione i co pozostało do zrobienia.

Ciemna Strona Neta : Dlaczego hipsterzy dokonują lepszych rewolucji?

W przypadku Iranu zachodni decydenci nie tylko źle odczytali Internet, ale także chwalili się swoją ignorancją każdemu, kto chciał słuchać. Ku ich zaskoczeniu, irański rząd uwierzył w ich blef i podjął agresywne środki zaradcze, znacznie utrudniając pracę polegającą na wykorzystywaniu Internetu do wspierania społecznych i politycznych zmian w Iranie i innych zamkniętych społeczeństwach. Możliwości sprzed trzech lat, kiedy rządy wciąż uważały, że blogerzy to tylko hipsterzy, zabawni, ale ostatecznie odrzuceni jako poważny ruch polityczny, nie są już dostępni. Blogerzy, którzy nie są już postrzegani jako modne obiboki, są postrzegani jako nowi działacze Solidarności – jest to nazbyt idealistyczna i prawdopodobnie błędna charakterystyka podzielana zarówno przez demokratyczne, jak i autorytarne rządy. Co najbardziej niepokojące, działa tutaj niebezpieczna samozapierająca się przepowiednia: im więcej zachodnich polityków mówi o zagrożeniu, jakie blogerzy stanowią dla autorytarnych reżimów, tym bardziej prawdopodobne jest, że te reżimy ograniczą pole manewru, w którym działają ci blogerzy. W niektórych krajach takie upolitycznienie może być lepsze, ponieważ blogowanie przybrałoby bardziej wyraźną rolę polityczną, a blogerzy mieliby status dziennikarzy lub obrońców praw człowieka. Ale w wielu innych krajach takie upolitycznienie może tylko zdusić rodzący się ruch internetowy, który mógłby odnieść dużo większe sukcesy, gdyby jego poparcie ograniczało się do dążenia do celów społecznych, a nie politycznych. To, czy Zachód musi upolityczniać blogowanie i postrzegać je jako naturalne przedłużenie działalności dysydentów, jest z pewnością złożonym pytaniem, które zasługuje na szeroką debatę publiczną. Ale to, że ta debata się w tej chwili nie toczy, nie oznacza, że ​​blogowanie nie jest upolitycznione, często do punktu bez powrotu, przez działania – a także deklaracje – zachodnich decydentów. Co więcej, uleganie cyberutopizmowi może uniemożliwić decydentom rozważenie całego szeregu innych ważnych kwestii. Czy powinni oklaskiwać lub uderzać w firmy technologiczne, które decydują się działać w reżimach autorytarnych, naginając w rezultacie swoje standardowe procedury? Czy są zwiastunami demokracji, jaką się podają, czy po prostu cyfrowymi odpowiednikami Halliburton i United Fruit Company, cynicznie wykorzystującymi lokalne możliwości biznesowe, jednocześnie wzmacniając rządy, które ich wpuściły? W jaki sposób Zachód powinien zrównoważyć nagłe dążenie do promowania demokracji przez Internet ze swoimi obecnymi zobowiązaniami do innych niemigitalnych strategii osiągnięcia tego samego celu, od wspierania niezależnych partii politycznych po rozwój organizacji społeczeństwa obywatelskiego? Jakie są najlepsze sposoby wzmocnienia pozycji aktywistów cyfrowych bez narażania ich na ryzyko? Jeśli Internet jest naprawdę rewolucyjną siłą, która może popchnąć wszystkie autorytarne reżimy w kierunku demokracji, czy Zachód powinien uciszyć wiele innych swoich obaw związanych z Internetem – pamiętajcie o tych wszystkich obawach dotyczących cyberwojny, cyberprzestępczości, internetowej pornografii dziecięcej, piractwa internetowego – i strajku gdy żelazo jest jeszcze gorące? To są niezwykle trudne pytania; są również niezwykle łatwe do udzielenia błędnej odpowiedzi. Podczas gdy Internet pomógł obniżyć koszty prawie wszystkiego, ludzkie szaleństwo jest towarem, który wciąż kosztuje stosunkowo wysoką cenę. Często powtarzana mantra ruchu open source – „często zawodzą, wcześnie zawodzą” – tworzy doskonałe oprogramowanie, ale nie ma zastosowania w sytuacjach, w których zagrożone jest ludzkie życie. Zachodni decydenci, w przeciwieństwie do ekspertów i naukowców, po prostu nie mają luksusu popełnienia błędu i późniejszego poradzenia sobie z konsekwencjami. Z punktu widzenia autorytarnych rządów znacząco spadły też koszty wykorzystywania zachodnich szaleństw. Naruszenie bezpieczeństwa tylko jednego działacza cyfrowego może oznaczać naruszenie bezpieczeństwa – nazwisk, twarzy, adresów e-mail – wszystkich, których zna dana osoba. Digitalizacja informacji również doprowadziła do ich ogromnej centralizacji: jedno skradzione hasło otwiera teraz drzwi do danych, które kiedyś nie istniały (do ilu różnych rodzajów danych – nie wspominając o osobach – miałoby dać dostęp, gdyby ktoś włamał się do Twojego hasła e-mail?). Nieokiełznany cyberutopizm to kosztowna ideologia do utrzymania, ponieważ autorytarne rządy nie stoją w miejscu i nie ma absolutnie żadnych gwarancji, że nie znajdą sposobu na przekształcenie Internetu w potężne narzędzie ucisku. Jeśli po dokładniejszym zbadaniu okaże się, że Internet wzmocnił także siły tajnej policji, cenzorów i biur propagandowych współczesnego autorytarnego reżimu, jest całkiem prawdopodobne, że proces demokratyzacji stanie się trudniejszy, a nie łatwiejszy. Podobnie, jeśli Internet obniżył poziom nastrojów antyrządowych – ponieważ ludzie uzyskali dostęp do taniej i prawie nieskończonej rozrywki cyfrowej lub ponieważ czują, że potrzebują rządu, aby chronił ich przed bezprawiem cyberprzestrzeni – z pewnością daje to reżimowi kolejne źródło legitymacji. Jeśli Internet przekształca samą naturę i kulturę oporu antyrządowego i sprzeciwu, odsuwając go od praktyk w świecie rzeczywistym w kierunku anonimowych przestrzeni wirtualnych, będzie to miało również znaczące konsekwencje dla skali i tempa ruch protestacyjny, nie wszystkie z nich są pozytywne. Większość obserwatorów potęgi politycznej Internetu zatraciła ten pogląd. Odmowa uznania, że ​​Internet może faktycznie wzmacniać, a nie osłabiać autorytarne reżimy, jest skrajnie nieodpowiedzialna i ostatecznie prowadzi do złej polityki, choćby dlatego, że daje decydentom fałszywe przekonanie, że jedyne rzeczy, które muszą robić, mają charakter proaktywny, a nie reaktywny . Jeśli jednak po dokładnym zbadaniu okaże się, że niektóre typy autorytarnych reżimów mogą korzystać z Internetu w nieproporcjonalnie większym stopniu niż ich przeciwnicy, nacisk działań na rzecz promocji demokracji na Zachodzie powinien przesunąć się ze wspierania działaczy w celu obalenia ich reżimów na przeciwdziałanie rządom. „własny wyzysk sieci, aby nie stać się jeszcze bardziej autorytarnymi. Nie ma sensu czynić rewolucji skuteczniejszą, szybszą i bardziej anonimową, jeśli szanse na jej sukces w międzyczasie się pogarszają.

Audyt Umysłu Hackera : Charakteryzacja Typów

Zazwyczaj charakterystyki cyberprzestępców należą do jednej z dwóch kategorii: teoretycznej i poincydentalnej (rzeczywistej lub kryminalistycznej). Podstawowym celem tego rozróżnienia jest to, że parametry, których metryki używają do oceny właściwości przeciwnika, będą się znacznie różnić, podobnie jak Aby określić, czy charakterystyka będzie wykorzystywała metodologie teoretyczne czy charakterystyczne, musimy ocenić charakter sytuacji i informacje, które są nam dostępne do przeprowadzenia charakterystyki. Chociaż wskaźniki stosowane do oceny braku obserwowalnych danych i przypisywania kontradyktoryjnych właściwości podczas charakteryzacji teoretycznej oraz obserwowalne dane przypisywane właściwościom kontradyktoryjnym podczas charakteryzowania rzeczywistego przeciwnika będą się różnić, wiele wskaźników używanych podczas rzeczywistej charakterystyki jest również powszechnych podczas oceny teoretycznej. , ale nie odwrotnie. Wynika to z faktu, że prawie wszystkie metryki, które są używane do charakteryzacji teoretycznej, są również przydatne do charakteryzowania rzeczywistych przeciwników, ale nie na odwrót, ponieważ dodatkowe metryki używane w charakteryzacjach kryminalistycznych opierają się na danych, które nie zawsze będą dostępne podczas charakterystyki teoretycznej, ponieważ żaden faktyczny incydent nie miał miejsca. Chociaż dane z wcześniejszych ataków są przydatne do budowania profili typów przeciwników, podczas charakteryzacji teoretycznej możemy tylko spekulować, że podmiot będzie miał ł podobne zachowanie do tego, które miało miejsce podczas ataku w przeszłości. Metryki używane podczas charakteryzacji teoretycznych, a nie do formułowania ogólnych założeń, że zachowania z przeszłości, rzekomo podobnego przeciwnika, są podobne do teoretycznego. Pamiętaj, że żaden z dwóch przeciwników nie będzie zachowywał się dokładnie w ten sam sposób.

Charakteryzacja teoretyczna

Teoria charakteryzacji teoretycznej jest prawdopodobnie najbardziej przydatna do wykonywania i ulepszania dokładności charakteryzacji zagrożeń związanych z aktywami, do ulepszania projektów topologii sieci i systemów danych oraz do opracowywania skutecznych metodologii testowania odporności tych systemów na znane i nieznane.

Wprowadzenie do teorii

Wielu członków grup opracowujących zaufane systemy komputerowe stwierdziło, że niezwykle pożyteczna byłaby sytuacja, w której programista byłby w stanie ocenić profile kilku prawdziwych hakerów, zidentyfikowanych jako potencjalnie stwarzających zagrożenie dla czegokolwiek to może być W ten sposób mogli ocenić, w jaki sposób każdy z przeciwników podejmie atak na swoją platformę, używając teorii charakteryzacji, aby wyjaśnić, jak każdy z nich zachowywał się w teście i dlaczego tak się zachowywał. Chociaż takie podejście może bardzo dobrze ujawnić kilka wcześniej niewidocznych problemów w projektowaniu lub wdrażaniu rozwiązania, jest to metodologia nieco doraźna, ponieważ osoby wybrane ręcznie, bez dokładnej oceny przed ćwiczeniem, miałyby kilka nieznanych właściwości. Co więcej, sam proces wykorzystywania „prawdziwych” hakerów może zepsuć jakąkolwiek wartość uzyskaną dzięki osobom, które zgodzą się wziąć udział w testach o wspólnych właściwościach. W tym scenariuszu preferencyjna metodologia postawiłaby programistę w sytuacji, w której mógłby on „fuzzować” przeciwników poprzez zmianę właściwości (zmiennych) wspomnianego przeciwnika i przy użyciu tych samych technik, które są używane do wyliczenia każdego przeciwnika, oceniając, jak uzyskany scharakteryzowany przeciwnik zachowałby się w danej sytuacji. ta metodologia ma tę zaletę, że jest wysoce kontrolowana i skalowalna, a w środowisku testowym testy sprawdzające dokładność samej metodologii byłyby trywialne do zorkiestrowania z wykorzystanie przeciwników. Jest to jedno z wielu zastosowań teorii charakteryzacji teoretycznej. Ten przykład jest dość specyficzny dla projektu systemu; Drugim najczęściej stosowanym zastosowaniem do charakteryzacji teoretycznej było scharakteryzowanie konkretnego zagrożenia, jakie stwarza dany składnik aktywów. Chociaż teoria używana do charakteryzowania zagrożeń związanych z zasobami pozostaje taka sama, fakt, że masz teraz do czynienia z zasobami (systemami komputerowymi lub innymi), które zostały już zaprojektowane, znacząco zmienia proces, przez który musisz przejść.

Charakterystyka po incydencie

W ciągu większości dni w dzisiejszym coraz bardziej wrogim Internecie administratorzy systemów, administratorzy sieci i personel pracujący w centrach operacji sieciowych dostawców zarządzanych usług bezpieczeństwa mają do czynienia z setkami ryz raportów zawierających szczegółowe informacje, gdyby zostały wydrukowane , do rzekomych incydentów w sieciach ich lub ich klientów. W dawnych złych czasach wykrywania włamań posiadanie systemu, który raportowałby zdarzenia na hoście i sieciowych urządzeniach włamań było uważane za wystarczające. Oczywiście większość dużych organizacji zdała sobie sprawę, że 20000 dolarów które właśnie zainwestowały w iDs, generuje więcej dzienników zdarzeń na sekundę niż liczba pracowników w ich organizacji, którzy przeglądają każdy wpis w dzienniku. W odpowiedzi, przymknie oko na lub (prawdopodobnie co najważniejsze) oznaczy zdarzenie jako fałszywie dodatnie. w ten sposób nadeszła era dostawcy zarządzanych usług bezpieczeństwa (MSS), który wykupił na rynku komercyjnym technologię korelacji zdarzeń i wykrywania fałszywych alarmów IDS. W przypadku większości organizacji wprowadzenie dostawcy MSS rozwiązało problem polegający na wydaniu znacznych kwot z ich budżetu na hostowe i sieciowe urządzenia do wykrywania włamań, na zarządzanie którymi nie było ich stać, ale pozostał jeden być może niewidoczny problem. Na chwilę wciel się w rolę administratora systemów w dużej organizacji, która przeszła przez proces zakupu sieciowych urządzeń do wykrywania włamań, połączony z nabyciem zarządzanych usług od dostawcy MSS. Logujesz się na stronie portalu MSS i wyświetl karty, które zostały zebrane dla Twoich segmentów sieci w wyniku wielu skorelowanych zdarzeń IDS. Pierwsze zgłoszenie, które zauważysz, informuje, że ktoś pochodzący z adresu IP znajdującego się w Chinach skanował kilka określonych zakresów portów na jednym z twoich projektów sieci. Uwaga na karcie  mówi, że zdarzenie powtórzyło się kilka razy w ciągu ostatnich trzech dni. Poniżej podsumowania informacji znajduje się kilka stron technicznych gadżetów dotyczących określonego źródłowego systemu operacyjnego pakietów i najbardziej prawdopodobnego narzędzia, które zostało użyte do wykonania skanowania – ale ignorujesz to, ponieważ skanowane zakresy portów nie mają dla Ciebie znaczenia i masz 90 innych kart IDS do przejrzenia przed spotkaniem operacyjnym za godzinę. Dwa dni później nowo zatrudniony administrator systemów ogłasza na firmowej tablicy ogłoszeń w intranecie, że serwer WWW w sieci produkcyjnej został przejęty przez skradzione dane logowania. Twoim zadaniem jest teraz poprowadzić dochodzenie w sprawie tego, co się stało. Pomijając podejrzenie, że osoba poufna brała udział w przejęciu hosta, który obsługiwał główną witrynę firmy w sieci Web do współpracy, naprawdę nie masz pewności, w jakim kierunku należy podjąć dochodzenie. Chociaż serwer obsługuje witrynę sieci Web i obecnie otrzymuje ponad 100 000 odwiedzin dziennie, zawartość witryny nie została w żaden sposób zniszczona; nie ma rejestrów tego, co osoba zrobiła w systemie, a wszystko, co masz, to dane IDS i potencjalny insider bez pojęcia, jak „wygląda” twój przeciwnik ani jakie są jego motywacje do ataku.

Wprowadzenie do teorii charakteryzacji

Kiedy mówimy o powypadkowej lub kryminalistycznej charakterystyce adwersarza, mamy na myśli sytuację, w której doszło do incydentu nieokreślonego rodzaju, przedstawiając jakąś formę danych, na których będziesz opierać dane, które możesz mieć po incydencie, podobnie jak nasz krótki Przykład: Istnieje kilka głównych celów tej formy charakterystyki. Miejmy nadzieję, że każdy cel zapewnia dźwignię uzasadniającą wyważoną reakcję na incydent, niezależnie od tego, czy reakcja ta ma na celu zmianę działania w projekcie sieci produkcyjnej na bardziej bezpieczny model, aby stworzyć dokładny profil przeciwnika, aby pomóc mu w jego lub jej schwytanie, lub co najważniejsze, w celu lepszego zrozumienia rodzajów ludzi, którzy naprawdę chcą włamać się do twojej sieci, ich motywacji i rodzajów ataków, które prawdopodobnie zobaczysz, pochodzących ze wspomnianego podzbioru przeciwników. Ponieważ miało miejsce faktyczne zdarzenie, punkt początkowy, w którym rozpoczyna się charakterystyka, zmienia się z typowego punktu początkowego charakterystyki teoretycznej na dane (IDS lub inne) dotyczące incydentu. W tym celu jedno z zastosowań teoretycznej charakterystyki przeciwnika która w przeszłości wzbudzała duże zainteresowanie i budziła wiele pytań, to możliwość zastosowania technologii, która może zautomatyzować charakterystykę przeciwników na podstawie samych danych IDS, dostarczając w czasie rzeczywistym „wynik” przeciwnika odpowiedzialnego za uruchomienie IDS. Chociaż ważne jest, aby pamiętać, że taki zautomatyzowany mechanizm nigdy nie mógłby być tak dokładny, jak wykonywanie czynności ręcznie, ze względu na ograniczone dane, do których IDS ma dostęp i ograniczenia wynikające z wyciągania wniosków przez IDS w oparciu o sztywne i szybkie reguły, co pozwala atakującemu na albo oszukać, albo ominąć te zasady, taka technologia jest bardzo możliwa. Miary, takie jak te, które badają semantykę ataku, mogą zostać wykorzystane do wyciągnięcia wniosków na temat przeciwnika na podstawie danych, takich jak system operacyjny, z którego korzysta osoba atakująca, exploit, którego używa, system operacyjny celu i trudność włamać się. W kolejnych rozdziałach omówiono niektóre z tematów (i problemów) przedstawionych dotyhczas. W kolejnych artykułach przanalizujemy wiele teorii charakteryzacji, do których nawiązano dotchzas , w tym tę, która może być użyta zarówno do charakteryzacji teoretycznej (typu aktywów), jak i której możemy użyć w niefortunnych czasach, gdy zdarzają się incydenty, dając nam ramy, w których możemy szukać atrybucji.

Zaufanie w Cyberspace : Zaufanie i bezpieczeństwo w czołowych technologiach przyszłości

Wszechobecna informatyka

Wszechobecne obliczenia lub wszechobecne obliczenia są używane zamiennie do oznaczania wykorzystania technologii komputerowych i urządzeń w codziennym życiu człowieka. Jego podstawową ideą jest uczynienie technologii łatwo dostępnej dla ludzi, a nie zmuszanie ich do dostosowania się do postępu technologicznego. Dziedzina ta wywodzi się zasadniczo z pola interakcji człowiek-komputer (HCI), które następnie uzyskało wsparcie z innych dziedzin, a złożony zestaw różnych innych obszarów przyczynił się do jego rozwoju. Jeśli urządzenia techniczne mieszają się ze zwykłym ludzkim życiem, zaufanie do obiektów w środowisku staje się kwestią najwyższej wagi. Takie zaufanie wśród elektronicznych /urządzenia techniczne można osiągnąć za pomocą systemów opartych na reputacji, jak omówiono wcześniej. Z drugiej strony bezpieczeństwo w przypadku wszechobecnej informatyki jest często tak trudne do zdefiniowania, jak jest w rzeczywistości; możliwe jest zapewnienie poczucia bezpieczeństwa w wszechobecnym środowisku komputerowym, ale ponieważ urządzenia mogą być różnych platform i funkcji, w rzeczywistości jest to skomplikowane zadanie, aby zapewnić odpowiednie bezpieczeństwo w wszechobecnej komunikacji.

Internet rzeczy i przyszłość Internetu

Internet rzeczy (IoT) to terminologia używana do unikalnych obiektów (lub rzeczy) i ich wirtualnych reprezentacji w strukturze podobnej do Internetu. Idea IoT uwzględnia to samo wszechobecne środowisko, co wszechobecne przetwarzanie. Podstawowa różnica między wszechobecną informatyką a IoT polega na tym, że gdy to samo ustawienie jest widziane z punktu widzenia konceptualnego, określa się je jako wszechobecne środowisko, ale patrząc pod kątem możliwych do zidentyfikowania obiektów biorących udział w systemie, nazywa się to IoT, Internet ,podobna sieć sieci. Ponieważ Internet przedmiotów i wszechobecne przetwarzanie danych zajmują się tym samym środowiskiem połączonych urządzeń (tj. różnego rodzaju urządzeń o różnej naturze i mocach obliczeniowych), zaufanie i bezpieczeństwo zarządzanie jest podobne do metod omówionych wcześniej. Oznacza to, że schemat opracowany dla wszechobecnego środowiska obliczeniowego może być również stosowany w większości przypadków do Internetu przedmiotów, gdy zajmowane jest zaufanie na poziomie urządzenia i bezpieczeństwo. Chociaż IoT został jasno zdefiniowany do tego czasu, Future Internet jest nadal niejasnym terminem. Przyszły Internet odnosi się zasadniczo do szerokiej gamy tematów badawczych związanych z ideą Internetu łączącego wiele urządzeń sieciowych na całym świecie. Jeśli pod koniec zostanie przedstawiony po prostu stosunkowo szybszy Internet z nowymi urządzeniami i technikami, może to być jedynie rozszerzenie obecnego Internetu. Podstawową wizją Internetu przyszłości jest jednak to, że nie jest to Internet, który widzieliśmy do tej pory; może mieć nowy sposób pracy, może mieć nową metodę łączenia urządzeń, a nawet może być kompletne podejście do rozwijania go. Ponieważ pełna definicja operacyjna nie została jeszcze sfinalizowana, zaufanie i bezpieczeństwo w Future Internet są również w fazie wstępnego badania i nie można ich wyraźnie opisać.

Bezprzewodowe sieci ad hoc i czujniki

Bezprzewodowa sieć ad hoc jest połączeniem węzłów obliczeniowych, które mogą komunikować się ze sobą bez obecności formalnej jednostki centralnej (bez infrastruktury lub półinfrastruktury) i mogą być tworzone w dowolnym miejscu i czasie. Każdy węzeł w sieci ad hoc może pełnić rolę hosta i urządzenia podobnego do routera w sieci. Mogą istnieć różne formy sieci ad hoc, takie jak mobilne sieci ad hoc (MANET), samochodowe sieci ad hoc (VANET), bezprzewodowe sieci kratowe (WMN), bezprzewodowe sieci czujników (WSN), sieci obszaru ciała (BAN), obszar osobisty sieci (PAN), itp. Chociaż wszystkie z nich zawierają pewne wspólne cechy technologii ad hoc, WSN jest siecią, o której warto wspomnieć, zwłaszcza, że ​​ten typ sieci ma dodatkową funkcję, która może mieć stację bazową, taką jak stała centrala jednostka do przetwarzania pakietów sieciowych i wszystkich innych węzłów czujnikowych w sieci mogłaby zostać wdrożona d hoc. Podstawowe cechy sieci ad hoc wymagają zaufania do inicjowania procesu komunikacji. W większości przypadków potrzebny jest pewien rodzaj przyjętego modelu, aby wprowadzić pojęcie wiary i zapewnić dynamiczną miarę wiarygodności i wiarygodności w scenariuszu ad hoc. Pomimo dodatkowej przewagi pewnego rodzaju centralnego organu w WSN (gdzie każdy uczestniczący podmiot nie jest zbyt rozproszony, jak czyste sieci ad hoc), prace badawcze związane z zaufaniem nadal wymagają konkretnych osiągnięć, aby osiągnąć zadowalający poziom. Jeśli chodzi o bezpieczeństwo, istnieją setki prac nad zarządzaniem kluczami, bezpiecznym routingiem, usługami bezpieczeństwa i systemami wykrywania włamań dla dowolnej sieci ad hoc

Chmura obliczeniowa

Przetwarzanie w chmurze to niedawno ukuty termin, w którym przetwarzanie rozproszone jest postrzegane z perspektywy świadczenia „usługi obliczeniowej”. Podstawową koncepcją przetwarzania w chmurze jest płatność oparta na wykorzystaniu zasobów i zasobach IT, które nie istnieją u użytkowników. koniec. Strategia ta umożliwia użytkownikom wykonywanie zadań za pomocą urządzeń komputerowych o ograniczonych zasobach, których wcześniej nie mogli wykonać. Aby wspierać takie rodzaje komunikacji i komputerów, istnieje wiele problemów badawczych, które należy rozważyć, aby zasoby były zarządzane w sposób wydajny i bezpieczny. W rzeczywistości dynamika usług, elastyczność i wybory oferowane przez tę wysoce skalowalną technologię są bardzo atrakcyjne dla różnych przedsiębiorstw. Te możliwości stwarzają jednak wiele wyzwań związanych z zaufaniem i bezpieczeństwem. Przetwarzanie w chmurze otworzyło nowe granice wyzwań, wprowadzając inny typ scenariusza zaufania, w którym technologia potrzebuje podstawowego zaufania uczestniczących podmiotów do rozpoczęcia funkcjonowania. Podczas gdy zaufanie może nadal być istotne dla koncepcji chmury, bezpieczeństwo stawia poważną trudność, na przykład, gdy bierze się pod uwagę uwierzytelnianie. Idea przetwarzania w chmurze polega na zachowaniu tożsamości dostawców usług w stanie pochmurnym, ale uwierzytelnienie, jako część bezpieczeństwa, wymagałoby prawidłowej identyfikacji obiektów, aby można było również zapewnić własność niezaprzeczalności. Niezaprzeczalność, w prostym znaczeniu, oznacza możliwość zapewnienia, że ​​strona w umowie lub zdarzeniu komunikacyjnym nie może zaprzeczyć autentyczności własnych wiadomości, pakietów, podpisu lub innego rodzaju dokumentu, który generuje. Te sprzeczne zasady sprawiły, że bezpieczeństwo przetwarzania w chmurze nadal stanowi bardzo trudny obszar badań. Jednym z możliwych rozwiązań jest utrzymanie pewnego rodzaju zaufanego dostawcy usług i korzystanie z nich przez zaufany serwer dostarczający usługi lub menedżera usług. Inną kwestią w tej dziedzinie jest to, jak długo należy utrzymywać ustalone zaufanie lub jak je zburzyć, zachowując nienaruszoną koncepcję chmury? (Oznacza to, że klienci nie wiedzą dokładnie, w których lokalizacjach otrzymują wymagane usługi lub w jaki sposób ich żądania zostały przetworzone.) W rzeczywistości jest to obszar, w którym zaufanie i bezpieczeństwo są ze sobą powiązane. Elementy przetwarzania w chmurze łączą się również z pojęciem Internetu przyszłości, co prowadzi do koncepcji sieci w chmurze. Stąd też postęp w dziedzinie zaufania i bezpieczeństwa w cloud computing może również przyczynić się do tych samych obszarów w przyszłości Internetu.

Sieci konwergentne nowej generacji

Zanim określimy relację między zaufaniem a bezpieczeństwem, przypomnijmy podstawową różnicę między dwoma terminami hybrydowymi i zbieżnymi. Chociaż niektóre obszary badań można podzielić na więcej podobszarów i tematów, wśród naukowców istnieje tendencja do myślenia o łączeniu różnych technologii. Termin hybryda jest powszechnie stosowany w takich przypadkach. Często ludzie mówią o połączeniu struktury fizycznej lub różnych platform urządzeń, korzyści lub usług lub cech różnych technologii, aby uzyskać system hybrydowy.

Jednak termin konwergencja sieci lub bardziej konkretnie konwergentna sieć wykracza poza pojęcie hybrydyzacji sieci lub sieci hybrydowej. W dziedzinie telekomunikacji konwergencja sieci odnosi się do świadczenia usług telefonicznych, wideo i transmisji danych w ramach jednej sieci. Tak więc, chociaż hybryda po prostu odnosi się do łączenia pozornie rozłącznych technologii / usług, konwergencja odnosi się do odpowiedniego mieszania i płynnej funkcjonalności wspólnego systemu. Dlatego sieć konwergentna wymaga jednej rury do dostarczania wszystkich form usług komunikacyjnych. Nie ma wątpliwości, że proces konwergencji sieci wynika przede wszystkim z rozwoju technologii i popytu. Jednym z głównych celów takiej integracji jest dostarczanie konsumentom lepszych usług i niższych cen. Zamiast płacić oddzielnie za każdą usługę lub technologię, użytkownicy mogą mieć dostęp do szerszego zakresu usług i wybierać spośród większej liczby dostawców usług, co uczyniłoby użytkowników głównymi beneficjentami, a także zapewniło zysk dostawcy. W rzeczywistości konwergencja umożliwia dostawcom usług przyjmowanie nowych modeli biznesowych, oferowanie innowacyjnych usług, korzystanie z ofert specjalnych i wchodzenie na nowe rynki. Inna definicja konwergencji sieci lub po prostu konwergencji może być podana jako szeroki termin używany do opisywania nowych technologii telekomunikacyjnych i architektury sieci wykorzystywanych do migracji wielu usług komunikacyjnych do jednej sieci. Oznacza to, że przyszłe sieci są również objęte tą koncepcją. W niektórych publikacjach formalna definicja sieci konwergentnej to: perspektywa ponadnarodowa, jak integracja i digitalizacja. Integracja jest tutaj definiowana jako proces pomiaru transformacji o stopień, w jakim różne media, takie jak telefon, transmisja danych i infrastruktura informatyczna, są połączone w jedną jednolitą platformę architektury sieci uniwersalnej. Cyfryzacja nie jest tak bardzo definiowana przez jej fizyczną infrastrukturę, jak przez treść lub medium. Czasami digitalizacja oznacza rozbijanie sygnałów na bajty składające się z zer i jedynek; to takie proste!

Aby rozwiązać ten problem i zrozumieć go z praktycznych perspektyw, możemy zauważyć, że podjęto wiele ostatnich inicjatyw, takich jak sieci nowej generacji (NGN) i podsystemy multimedialne IP (IMS), aby zapewnić bezproblemową architekturę dla różnych technologii dostępu, które harmonizują z cele określone przez konwergencję sieci. Oprócz innych innowacyjnych podejść, na przykład poprzez integrację różnych technologii – platform dostarczania usług (SDP) i IMS – możliwe jest teraz łatwe dostarczanie, wykonywanie i zarządzanie usługami. Inne problemy, takie jak komunikacja punkt-punkt i transmisja, usługi zorientowane na dane i multimedia, systemy mobilne i komórkowe oraz szybkie łącza światłowodowe i mobilność, pozostają trudnymi zadaniami i, co najmniej, obraz typu end-to-end to wciąż niejasne. Jak powinno do tego czasu, gdy pełny obraz nie jest jasny, ten sam rodzaj niepewności w określaniu granic zaufania i bezpieczeństwa pozostaje taki sam, jak w przypadku innych innowacyjnych technologii przedstawionych wcześniej.

Wnioski i otwarte problemy

W dzisiejszym świecie duże firmy, takie jak Amazon i eBay (lub podobne firmy) używają pewnego rodzaju systemu ratingowego, który opiera się na zaufaniu lub stanowi podstawę zaufania do produktów sprzedawanych przy użyciu tych kanałów. Bezpieczeństwo opiera się na zaufaniu i służy głównie do zezwalania na transakcje pieniężne. Zarządzanie zaufaniem w rzeczywistości jest złożoną mieszanką różnych dziedzin, jeśli weźmiemy pod uwagę technologie obliczeniowe i komunikacyjne razem. W tym rozdziale omówiono niektóre przyszłe technologie, ale istnieje wiele innych pojawiających się dziedzin, takich jak komunikacja bliskiego pola (NFC), elektroniczne zarządzanie wiedzą, sieci nanokomunikacyjne itp., Które również będą potrzebowały wsparcia zaufania i bezpieczeństwa. Naukowcy i praktycy z różnych dziedzin, takich jak sieci, sieci i przetwarzanie w chmurze, przetwarzanie rozproszone, systemy informacyjne, HCl i modelowanie ludzkich zachowań mogą być ofiarodawcami, a połączenie różnych dziedzin pod tym parasolem stanie się nieuniknione w nadchodzących dniach. Bez względu na postępy, jakie moglibyśmy osiągnąć w konkretnej skali w nadchodzących dniach, niektóre podstawowe pytania mogą wciąż pozostać takie, jak długo należy utrzymywać lub utrzymywać ustalone zaufanie w jakimkolwiek systemie komputerowym i komunikacyjnym? Jeśli potrzebne jest okresowe odświeżanie i ponowne ustanawianie zaufania, jaki może być optymalny interwał dla różnych ustawień? Czy okresowe przywracanie zaufania wpłynie na ustanowione bezpieczne kanały? Czy bezpieczeństwo będzie w stanie działać samodzielnie, gdy parametry zaufania zostaną całkowicie zignorowane? Nadal pozostaną główne pytania: czy w przyszłych technologiach innowacyjnych będą istniały wyraźne granice między zaufaniem a bezpieczeństwem, czy też należy uwzględnić zaufanie w granicach bezpieczeństwa?

TOR : Jak działa TOR?

Cebula ma wiele warstw, które chronią – i formują – warzywo.

Podobnie TOR jest siecią złożoną z kilku routerów, które służą jako „warstwy”. Podobnie jak w prawdziwym odpowiedniku etui, warstwy zewnętrzne chronią wnętrze, w Twoim przypadku Twoją tożsamość. Wyobraź sobie, że musisz wysłać paczkę z wartościową zawartością. Jak możesz zabezpieczyć ten przedmiot przed dostawą? Możesz chwycić folię bąbelkową, aby przykryć przedmiot. Następnie możesz dodać dodatkowe warstwy, aby to zapewnić integralność. TOR działa w podobny sposób. Cennym przedmiotem są Twoje dane osobowe oraz zapytania, które przesyłasz do Internetu. Aby uniknąć łatwego śledzenia, TOR kieruje przepływem informacji przez różne punkty swojej sieci. Jest to odpowiednik posiadania kilku warstw chroniących Twój identyfikator online. Węzły sieci składają się z routerów i serwerów na całym świecie. Czy to brzmi prosto? Na szczęście nie potrzebujesz specyfikacji technicznych, aby skorzystać z usługi. Teraz przeanalizujmy poziom bezpieczeństwa TOR…

Jak bezpieczny jest TOR?

W życiu nie ma nic w 100% bezpiecznego. Nawet mieszkanie pod ogromnym kamieniem nie uchroni cię całkowicie przed zagrożeniami ze świata zewnętrznego. Dlatego nie ma powodu, aby wierzyć, że TOR jest bezpieczniejszy niż inne alternatywy w każdym przypadku. Chociaż rzeczywiście wyróżnia się w regularnych zastosowaniach, na przestrzeni lat ujawniono kilka słabych punktów. Ta lista podsumowuje niektóre exploity związane z TOR:

* Podsłuch w systemie autonomicznym (AS). Każdy może szpiegować ruch przychodzący i wychodzący z sieci TOR. Dzięki zaawansowanemu śledzeniu mogą wskazać Twój identyfikator lub lokalizację. Oczywiście nie jest to możliwe, chyba że naprawdę jesteś profesjonalistą w strategiach hakerskich.

* Podsłuchiwanie węzłów wyjściowych. Węzeł wyjściowy to punkt, w którym TOR nie ma już kontroli nad informacjami przesyłanymi do serwera, czyli łączy się z dowolnym komputerem na świecie. W związku z tym ekspert może odzyskać hasła, konta e-mail itp. Z tych punktów. Oczywiście, jeśli nie użyjesz żadnego z tych wewnątrz TOR, jesteś bezpieczny i zdrowy.

* Atak analizy ruchu. Chociaż tego rodzaju atak nie ujawnia ID, mogliby zebrać informacje o użytkowniku w sieci TOR. Nie jest to jednak duży problem.

* Blok węzła wyjściowego TOR. Niektóre strony internetowe blokują użytkownikom TOR, aby uniemożliwić dostęp do ich usług bez identyfikacji siebie. Dlatego nie będziesz mógł edytować Wikipedii podczas korzystania z TOR, korzystać z odtwarzacza online BBC i tak dalej.

* Zły atak jabłka. Ta luka polega na wykorzystywaniu słabych usług, takich jak klienci P2P BitTorrent wewnątrz TOR. Dlatego nie używaj takich połączeń do „pobierania” anonimowo; zamiast tego narazisz swoją anonimowość.

* Protokoły, które ujawniają adresy IP. Oprócz BitTorrent jest więcej protokołów, które ujawniają adres IP (a tym samym Twój prawdziwy identyfikator), takie jak komunikacja z trackerem P2P, rozproszone tablice skrótów itp. Ataki te koncentrują się na lukach w zabezpieczeniach man in the middle.

* Ataki snajperskie. Co jest gorszego niż atak typu „odmowa usługi” (DDoS)? Rozproszony odpowiednik; DDoS, czyli grupowy atak na węzły wyjściowe, aby atakujący mógł stwierdzić, z których korzystasz. Działa to w „prosty” sposób: blokujesz wystarczająco dużą liczbę węzłów, tak że użytkownik TOR będzie musiał polegać na jednym z nielicznych, które nadal działają. Co dostajesz? Wyższe prawdopodobieństwo wskazania węzłów, których „używasz”; stąd większa szansa, aby dowiedzieć się, kim jesteś. Oczywiście nie jest to do końca technika laika.

* Błąd krwawienia z serca. Ten błąd ujawnił i złamał hasła w kwietniu 2014 w sieci TOR. Te protokoły zostały wkrótce dezaktywowane. Istnieje jednak szansa, że ​​w przyszłości pojawią się podobne luki, chociaż nie są one wysokie. Główną przesłanką uniknięcia takich problemów jest poleganie na usługach ukrytych;

* Odciski palców myszy. Ten jest trochę za pokręcony, ale działa. Porównanie kliknięć, które robisz w witrynie, z JavaScriptem do śledzenia ruchy myszy, ekspert udowodnił, że określenie tożsamości osoby jest „wykonalne”. Na szczęście, jeśli nie korzystasz z publicznych komputerów, to ryzyko nie jest zagrożeniem.

* Atak polegający na pobieraniu odcisków palców. Były częściowo ujawnione wiadomości luki w zabezpieczeniach związanych z odciskami palców w sieci TOR. Dlatego lepiej nie używać bio trackerów.

* Informacje o objętości. Anonimowość oferowana przez TOR nie pozwala ukryć ilości danych, które poruszasz. Dlatego jeśli jesteś pod jakimkolwiek inwigilacją, mogą śledzić Twoje kroki nawet przy użyciu TOR.

* Inny. Z biegiem czasu coraz więcej exploitów będzie się pojawiać.

Niektóre z nich zostaną natychmiast rozwiązane; inne będą trwać dłużej, ale zostaną w jakiś sposób pominięte. Oczywiście, nie ma nic lepszego niż wszechstronny, nigdy nie używany system ochrony Twojego identyfikatora online; tak jak w prawdziwym życiu. Lista może wydawać się zniechęcająca do regularnego korzystania z TZW, ale tak nie jest. Jednak pokazanie możliwych zagrożeń jest częścią moich obowiązków w tym wprowadzeniu do usługi. Morał z tej historii jest następujący: TOR nie zapewnia 100% bezpieczeństwa Twojej aktywności online; tworzy anonimowość.

Ten krok jest raczej prosty. Do korzystania z TOR potrzebna jest przeglądarka zgodna z usługą. Możesz przejść do witryny internetowej projektu TOR, aby pobrać najnowszą wersję tego narzędzia programowego. W szczególności możesz być zainteresowany korzystaniem z przeglądarki TOR; co jest prawdopodobnie wszechstronną alternatywą, aby zacząć anonimowość online. Istnieją również dodatki do innych popularnych przeglądarek, takich jak Mozilla Firefox. Jeśli jesteś już użytkownikiem Mozilli, ta opcja może Cię zainteresować. Oczywiście funkcjonalności są nieco ograniczone w porównaniu z posiadaniem przeglądarki TOR; ale prostota instalacji dodatku jest niesparowana. Jeśli chcesz poznać zalety i wady obu opcji, oto kilka wskazówek.

Lean Customer Development : Rozwój klientów to nie badania użytkowników

Twoja firma może już prowadzić badania użytkowników. Nie oznacza to, że ćwiczysz rozwój klienta. Rozwój klienta zapożycza wiele technik, które od dziesięcioleci dobrze służyły badaczom użytkowników. Ale kontekst, praktykujący i czas są bardzo różne. Badacze użytkowników często opisują swoją pracę jako „rzecznictwo użytkownika”. Niestety, w wielu firmach nadal jest postrzegany jako opcjonalny, coś, co warto zrobić, bo zachwyca klientów. Rozwój klienta to „popieranie biznesu”. Nie należy tego robić, ponieważ uszczęśliwia to klientów. To coś, co musisz zrobić, aby zbudować zrównoważony biznes, w którym ludzie otwierają swoje portfele i płacą za Twój produkt lub usługę.

Dlaczego potrzebujesz rozwoju klienta

Większość nowych produktów (i firm) zawodzi. Szanse są przeciwko tobie. Około 75% start-upów wspieranych przez venture upada. Gdziekolwiek od 40% do 90% nowych produktów nie zdobywa znaczącej popularności na rynku. Ale z pewnością uważamy, że będziemy wyjątkiem. Lubimy myśleć o budowaniu produktu jako sztuce – coś, co kieruje się naszą kreatywnością, intuicją i intelektem. Wszyscy wiemy, że istnieją dobrzy menedżerowie produktu (oraz projektanci, inżynierowie i stratedzy), a także przeciętni. Może to właśnie stanowi różnicę między nieudanym produktem a sukcesem? Niestety nie. Ogólnie rzecz biorąc, po prostu nie jesteśmy zbyt dobrzy w tworzeniu produktów i firm wyłącznie w oparciu o kreatywność, intuicję i intelekt. To nie jest tylko problem związany ze startem: w 1937 roku firmy, które tworzyły indeks S&P 500, miały średnią długość życia 75 lat; ostatnio ta liczba spadła do zaledwie 15 lat. Na mniejszą skalę też nie jesteśmy tak dobrzy, jak nam się wydaje. Większość naszych pomysłów nie zwiększa wartości dla klientów ani firm – firma Microsoft szacuje, że tylko około jedna trzecia ich pomysłów poprawia wskaźniki, które mają poprawić. Amazon testuje każdą funkcję i mniej niż 50% działa; Liczby Yammera są mniej więcej takie same. Netflix i Intuit nie mają większego odsetka sukcesów. Prawda jest taka, że ​​nie ma znaczenia, ile firmy przeprowadzają badania, jak dobrze planują, ile wydają pieniędzy ani jak sprytni są ich pracownicy: szanse, że unikną dużych błędów, są gorsze niż rzut monetą.

Nie tylko oprogramowanie

Być może przytaczam wiele firm zajmujących się oprogramowaniem, ale korzyści wynikające z redukcji ryzyka i korekty kursu są jeszcze większe dla innych firm. Linie kodu są znacznie tańsze i szybsze do zmiany niż konfiguracje produkcyjne, umowy z dostawcami i zatwierdzenia zgodności. Masz ograniczone możliwości odzyskania zaufania do usługi, która rozczarowała Twojego klienta, i nie ma możliwości zmiany fizycznego produktu, gdy trafi on w ręce klienta. Dla twórców KRAVE jerky kluczowe znaczenie miało zrozumienie, w jaki sposób klienci definiowali przekąskę premium (bez azotanów i sztucznych składników), zanim zdecydowali się na przepis i rozpoczęli masową produkcję. Dla Romotive, firmy zajmującej się produkcją robotów na smartfony do nauki, kluczowe było zrozumienie środowiska, w którym będą się poruszać ich roboty. „Robot musi mieć dobrą mobilność i przyczepność na dywanach, podłogach sprzętowych lub kratach. Poza tym dzieci upuszczają rzeczy! Wiele z tego, czego dowiedzieliśmy się o tym, jak będą działać te roboty, wpłynęło na nasze decyzje dotyczące sprzętu ”- mówi marketingowiec Charles Liu.

Ile Google wie o Tobie : Scenariusze ujawniania informacji

Pomimo naszych najlepszych intencji, wgląd można uzyskać na podstawie najbardziej nieprawdopodobnych informacji. Weźmy na przykład prosty akt zamówienia pizzy. Może się to wydawać nieszkodliwe, ale w Waszyngtonie nagły wzrost zamówień na pizzę w Białym Domu lub Pentagonie może sygnalizować poważny kryzys, jaki miał miejsce podczas wojny w Zatoce Perskiej i skandalu z Monicą Lewinsky. Nie tylko zamawiając pizzę, codziennie przez lata ujawniamy poufne informacje o sobie, naszych znajomych i pracodawcy. Podobnie, internet zawiera dodatkowy zbiór informacji, które można przechwycić za pomocą Googlebota lub innych robotów internetowych, skryptów indeksujących strony internetowe i dodać do równania. Z tych źródeł firmy internetowe wiedzą bardzo dużo o naszym życiu, od najmniej znaczących aspektów po najważniejsze kryzysy osobiste. Rozważ następujące przykłady.

* Dział badań Twojej firmy odkrywa nową technologię. Korzystają z bazy patentów Google, aby wyszukać wszelkie powiązane patenty. (Nie wybrali witryny Urzędu Patentów i Znaków Towarowych Stanów Zjednoczonych, ponieważ woleli łatwość obsługi Google). Ich wyszukiwania (w tym udane i nieudane) ujawniają główne idee nowej technologii.

* Grupa wsparcia AIDS wybiera nowe miejsce spotkania. Organizator wysyła e-mail z linkiem do wskazówek dojazdu w Mapach Google do wszystkich członków grupy korzystających z jego konta Gmail. Ujawnił całą przynależność do grupy (za pośrednictwem adresów e-mail), temat spotkania (w treści swojego e-maila) oraz adresy IP wszystkich członków, którzy klikną w link. Ponadto identyfikujące pliki cookie były prawdopodobnie umieszczane na komputerze każdego członka, gdy odwiedzał on witrynę. Późniejsze wyszukiwania tej samej lokalizacji mogą wskazywać na nowych członków grupy.

* Firma przeżywa ciężkie chwile. Pracownicy potajemnie zaczynają używać swoich komputerów do wyszukiwania ofert pracy i wiadomości o swoim pracodawcy.

* Firma planuje rozpocząć nową inicjatywę strategiczną. Firma przez trzy miesiące bada producentów z małej prowincji w Chinach za pomocą Google.

* Mężczyzna szuka nazwy okładki wrażliwego projektu. Nie odkrywając nazwiska w wynikach wyszukiwania, kontynuuje poszukiwania powiązanych tematy.

* Kobieta zajdzie w ciążę. Szuka nazwisk położników i dzieci. Później szuka klinik aborcyjnych. Dwa tygodnie później szuka poradni.

* Organ ścigania korzysta z wyszukiwarki internetowej, aby sprawdzić tło potencjalnych klientów i anonimowych źródeł większości ich aktywnych spraw.

* Haker szczyci się anonimowością swojego uchwytu. Jego zdjęcie i prawdziwe imię nie są dostępne w internecie. Fan jego pracy słyszy jego nazwisko na konferencji i tego wieczoru szuka witryny internetowej hakera, używając zapytania zawierającego zarówno prawdziwe imię hakera, jak i jego pseudonim.

* Badacze złośliwego oprogramowania w firmie zajmującej się bezpieczeństwem są dumni z tego, że zgromadzili największą liczbę nieujawnionych luk w zabezpieczeniach. Często używają Google do badania każdej nowej luki w zabezpieczeniach i potwierdzania, że ​​nie została odkryta.

* Firma zatrudniająca pracowników mobilnych decyduje się umieścić swoje księgi finansowe w arkuszu kalkulacyjnym Google, aby przedstawiciele handlowi mieli dostęp do plików  z całego świata.

* Mężczyzna rozwija możliwe objawy raka płuc. Prowadzi poszukiwania dotyczące choroby. Później szuka informacji o ośrodkach leczenia raka w okolicy. Sześć miesięcy później jego żona szuka domów pogrzebowych.

Ta lista może trwać wiecznie. Niezależnie od tego, czy próbujesz chronić własność intelektualną firmy, czy tylko prywatność swojego życia osobistego, kluczową ideą jest to, aby nie lekceważyć znaczenia ujawnianych informacji, szczególnie w czasie. Im lepiej rozumiesz tę wartość, tym lepiej możesz ocenić akceptowalne ryzyko podczas korzystania z różnych typów narzędzi internetowych. Należy zauważyć, że lista ta obejmuje niewinne zastosowania narzędzi internetowych. Równie łatwo mogłem uwzględnić kontrowersyjne lub przestępcze zastosowania, takie jak pedofile szukający wrażliwych dzieci, terroryści dzielący się instrukcjami dotyczącymi produkcji bomb, seryjni mordercy badający, jak ukryć swoje ślady, lub handlarze narkotyków komunikujący się z dostawcami. Te rzadkie scenariusze są często wykorzystywane przez rządy i inne podmioty jako narzędzie public relations, aby zagrozić prywatności przestrzegających prawa użytkowników Internetu, takich jak ci z poprzedniej listy.

Ciemna Strona Neta : Od koktajli mlecznych po koktajle Mołotowa

Pochwała Jareda Cohena dla organicznej zdolności Facebooka do promowania demokracji może być tylko stwierdzeniem faktów. Jeśli wszystko inne jest równe, świat, w którym tak wielu Chińczyków i Irańczyków gromadzi się w usługach amerykańskich firm technologicznych, może rzeczywiście być światem, w którym demokracja ma większe szanse na zwycięstwo w dłuższej perspektywie. Trudno się nie zgodzić z tym stwierdzeniem, zwłaszcza jeśli inną alternatywą jest skłonienie tych użytkowników do wyboru krajowych usług internetowych; te są zazwyczaj znacznie bardziej kontrolowane i cenzurowane. Mimo to ważne jest, aby nie tracić z oczu faktu, że obecna sytuacja nie jest wynikiem jakiejś przebiegłej i niezwykle skutecznej amerykańskiej strategii wykorzystywania Facebooka. Jest to raczej rezultat ówczesnych warunków intelektualnych i rynkowych. Do niedawna autorytarne rządy po prostu nie zwracały uwagi na to, gdzie ich obywatele decydują się na wysyłanie e-maili i udostępnianie przepisów na makaron; Amerykańskie firmy często jako pierwsze oferowały swoje doskonałe usługi, a większość rządów nie zadała sobie trudu, aby tworzyć jakiekolwiek bariery. Być może byli podekscytowani sukcesem amerykańskich platform w przeciwieństwie do lokalnych start-upów internetowych, ale potem ich krajowy przemysł fast food również ustępował miejsca McDonald’s; Dopóki nikt nie mógł pomylić potrójnie gęstego koktajlu waniliowego McDonald’s z koktajlem Mołotowa, nie było się czym martwić. Niemniej jednak, gdy tacy ludzie jak Jared Cohen zaczną chwalić Facebooka jako organiczne narzędzie promowania demokracji, natychmiast przestaje nim być. W pewnym sensie jedynym powodem tak dużej swobody w regulacji usług internetowych działających w państwach autorytarnych było to, że ich przywódcy nie widzieli oczywistego związku między interesami biznesowymi firm amerykańskich a interesami politycznymi rządu amerykańskiego. Ale ponieważ Departament Stanu próbuje zebrać owoce sukcesu Doliny Krzemowej na globalnym rynku, nieuniknione jest, że wcześniej beztroskie postawy ustąpią miejsca wzmożonej podejrzliwości. Wszelkie wyraźne posunięcia amerykańskich dyplomatów w tej przestrzeni będą uważnie obserwowane. Co więcej, będą interpretowane zgodnie z powszechnymi teoriami spiskowymi, a nie w świetle przestarzałych komunikatów prasowych wydanych przez Departament Stanu w celu wyjaśnienia jego działań. W lipcu 2010 r. Chińska Akademia Nauk Społecznych, jedna z najlepszych organizacji badawczych rządu chińskiego, opublikowała szczegółowy raport o politycznych implikacjach Internetu. Argumentował, że serwisy społecznościowe zagrażają bezpieczeństwu państwa, ponieważ Stany Zjednoczone i inne kraje zachodnie „używają ich do podsycania niestabilności”. Trudno nie postrzegać tego jako bezpośredniej odpowiedzi na słowa i czyny Jareda Cohena. (Chiński raport cytuje anonimowych urzędników amerykańskich, którzy twierdzą, że portale społecznościowe są „nieocenionym narzędziem” do obalenia obcego rządu i dobrze wykorzystał zaangażowanie rządu USA za pośrednictwem Twittera w irańskie niepokoje w 2009 r.) Kiedy amerykańscy dyplomaci nazywają Facebooka narzędziem jeśli chodzi o promocję demokracji, można bezpiecznie założyć, że reszta świata wierzy, że Ameryka chce wykorzystać to narzędzie w pełnym zakresie, a nie tylko patrzeć na nie z podziwem. Amerykańscy dyplomaci niesłusznie traktują Internet, jak im się wydaje, rewolucyjny, jako przestrzeń wolną od narodowych uprzedzeń. Cyberprzestrzeń jest znacznie mniej podatna na amnezję polityczną, niż sądzą; wcześniejsze błędy polityczne i długoletnia historia wzajemnych wrogości między Zachodem a resztą nie zostaną tak łatwo zapomniane. Nawet w erze cyfrowej polityka zagraniczna kraju jest nadal ograniczona przez ten sam zestaw raczej nieprzyjemnych barier, które ograniczały ją w analogowej przeszłości. Jak wskazali ponad dziesięć lat temu Joseph Nye i Robert Keohane, dwaj czołowi badacze stosunków międzynarodowych, „informacja nie płynie w próżni, ale w przestrzeni politycznej, która jest już zajęta”. Aż do wydarzeń w Iranie, amerykańscy giganci technologiczni mogli rzeczywiście funkcjonować w większości apolitycznej próżni i oszczędzono im wszelkich uprzedzeń, które można nazwać „Amerykaninem”. Jednak takie dni wyraźnie się skończyły. Na dłuższą metę odmowa uznania tej nowej rzeczywistości tylko skomplikuje zadanie promowania demokracji