Audyt Mózgu Hackera : Nowe organizacje i nowe odkrycia

Rok 1998 był rokiem znaczącego przebudzenia zarówno w wojskowym, jak i cywilnym sektorze rządu USA. Wiosną tego roku administracja Clintona opublikowała PDD 63 i uruchomiła pierwszą z kilku organizacji, które ostatecznie stały się centralnymi komponentami Departamentu Bezpieczeństwa Wewnętrznego w 2003 roku. Narodowe Centrum Ochrony Infrastruktury stało się częścią Departamentu Sprawiedliwości, a Biuro Zapewnienia Infrastruktury Krytycznej dołączyło do Departamentu Handlu. Sektor prywatny utworzył również pierwsze z kilku sektorowych Centrów Wymiany Informacji i Analiz, z których każde jest połączone z odpowiadającym mu biurem w rządzie federalnym. ISAC to mechanizm służący sektorowi prywatnemu i publicznemu do tworzenia partnerstw w celu wymiany informacji o zagrożeniach fizycznych i cybernetycznych, podatnościach i wykrytych zdarzeniach zagrażających infrastrukturom krytycznym. Model ISAC rozwijał się powoli w kolejnych latach, ale w lutym 2000 r. ataki na główne witryny handlu elektronicznego pobudziły sektory do działania. Departament Obrony, opierając się na wynikach kwalifikującego się odbiornika 97 i Solar Sunrise, podjął szybkie kroki w 1998 r., Aby odpowiedzieć na rosnące zagrożenia w cyberprzestrzeni skierowane do sieci komputerowych DoD. działanie pod koniec roku, po kilkumiesięcznych naradach nad jego funkcją, projektem i umiejscowieniem w wydziale. Podobnie jak większość ówczesnych organizacji zajmujących się cyberobroną, JTF-CND początkowo koncentrował się na identyfikowaniu i ograniczaniu technicznych słabości komputerów i sieci komputerowych w kontrolowanych przez siebie sieciach. Równolegle z utworzeniem JTF-CND pod koniec 1998 r. Pentagon zaproponował również pomysł, aby DoD badał swoje sieci nie tylko pod kątem luk w oprogramowaniu lub braku technologii obronnych, takich jak zapory ogniowe lub systemy wykrywania włamań, ale także pod kątem witryn internetowych. i inne zasoby online, które ujawniły poufne informacje w Internecie. Propozycja ta powstała na początku 1999 roku wraz z utworzeniem Joint Web Risk Assessment Cell, jednostki rezerwowej, która w weekendy ćwiczyła w cyberprzestrzeni, a nie w Centrum Rezerw. JTF w trakcie restrukturyzacji kilka lat później. Rozpoczynając od strony internetowej DoD DefenseLINK, a następnie obejmując wszystkie zasoby internetowe DoD, JWRAC potwierdził, co cytowano z wypowiedzi zagranicznego oficera Information Warfare na początku 1998 roku:

Jestem zdumiony ilością i zawartością materiałów o otwartym kodzie źródłowym dostępnym w Internecie od armii USA i innych rządowych agencji … Wróg USA nie musi mieć konkretnych plany wojenne / operacyjne, kiedy jest tak wiele informacji o doktrynie USA powszechnie dostępne. – Odprawa JWRAC, 27 listopada 2001 r

W pierwszym roku działalności zespół zbadał setki witryn internetowych DoD i znalazł znaczące ilości informacji, które nie powinny być dostępne online, takie jak dokumenty niejawne, szczegółowe informacje o uczestnikach ćwiczeń i wyciągnięte wnioski oraz dokumenty i wiadomości przeznaczone wyłącznie do użytku oficjalnego. . Inne znalezione przez nich pozycje obejmowały plany operacyjne z załącznikami wyszczególniającymi logistykę, sprzęt i dane dotyczące siły roboczej, odprawy przeznaczone dla wybranych odbiorców, szczegółowe dane osobowe, schematy organizacyjne, zdjęcia i inne informacje, które nie powinny znajdować się w Internecie. Większość poszczególnych pozycji była sama w sobie niesklasyfikowana, ale łącznie znaczną ilość informacji niejawnych można było zebrać po prostu za pomocą wyszukiwarki internetowej i prostych słów kluczowych. Pozostała część rządu federalnego nie zajęła się tą samą luką w zabezpieczeniach informacji w swoich zasobach internetowych, dopóki po atakach terrorystycznych z września 2001 r. Nawet dzisiaj na stronach rządowych i prywatnych witryn internetowych pozostaje wiele informacji przydatnych przeciwnikowi prowadzącemu rozpoznanie infrastruktury krytycznej przed atakiem.

Lean Customer Development Złożoność modelu biznesowego i liczba zależności

Nawet jeśli jesteś ekspertem ds. Rozwoju klienta i domeny, niektóre modele biznesowe wymagają zweryfikowania większej liczby założeń. Jeśli Twoja firma jest zależna od współpracy z dostawcami, dystrybutorami lub innymi stronami trzecimi, musisz porozmawiać z tymi osobami, a także z bezpośrednimi klientami. Jeśli pośredniczysz na rynku dwustronnym, musisz słuchać obu stron i upewnić się, że wnosisz wartość dla obu stron. Może to podwoić lub potroić liczbę wywiadów, które musisz przeprowadzić. Ponieważ każda ze stron ma własne problemy i ograniczenia, musisz umożliwić wystarczającą liczbę rozmów, aby te wzorce ujawniły się dla każdego interesariusza docelowego

Inwestycja wymagana do utworzenia MVP

We wstępie wspomniałem, że spędziłem miesiąc na przeprowadzaniu wywiadów z klientami dla KISSmetrics. W tym czasie przeprowadziłem około 50 wywiadów, co jest prawdopodobnie blisko górnej granicy spektrum. Pozwólcie, że wyjaśnię, dlaczego potrzebowaliśmy tylu wywiadów, aby wesprzeć naszego MVP.

Technicznie rzecz biorąc, wersja beta KISSmetrics, która wyszła z tych 50 wywiadów, nie była pierwszym krokiem w kierunku weryfikacji klientów. Mieliśmy już witrynę przed uruchomieniem, na której setki klientów zarejestrowało się i udostępniło informacje o sobie i swoich firmach. To, co musieliśmy zweryfikować, to nie ich zainteresowanie, ale to, że nasze podejście do analityki internetowej będzie skuteczne i zróżnicowane dla klientów. W tej konkretnej sytuacji – produkt oparty na danych, w którym doświadczenie każdego klienta byłoby inne, a dokładność byłaby kluczowa – musieliśmy zainwestować znaczne zasoby inżynieryjne, aby stworzyć coś, co pozwoliłoby nam się uczyć. Dzięki zebraniu 50 wywiadów dotyczących rozwoju z klientami z góry, byliśmy w stanie maksymalnie zminimalizować tę inwestycję. Jednak ogólnie rzecz biorąc, jeśli myślisz, że będziesz potrzebować miesiąca lub więcej, aby popracować nad swoim MVP, prawdopodobnie jesteś bardzo przepracowany. Warto zasięgnąć porady mentora, który może zweryfikować Twój pomysł na MVP.

Jak przeprowadzić walidację na rynku „niemożliwym do osiągnięcia”?

Jeśli masz duże doświadczenie w dziedzinie domeny, nie musisz poświęcać czasu na poznanie przepisów, praw i zwyczajów. Mark Abramson, były prezydent USA Cycling, postawił hipotezę, że istnieje lepszy sposób na zapewnienie rowerzystom po wypadku lepszej opieki i szybszego powrotu na rowery. Szybko był w stanie zweryfikować problem i rozpocząć tworzenie rozwiązania. „Produktem” była profesjonalna organizacja Medicine of Cycling, która łączy lekarzy, zespoły kolarskie i sportowców i jest gospodarzem corocznej konferencji. Jak mówi Abramson: „Medycyna kolarstwa jest zasługą mojej żony Anny, lekarza. Rozmawiała z chirurgiem urazowym z Harvardu, który powiedział: „Zabieramy wszystkich tych rannych rowerzystów na pogotowie i myślę, że jest szansa na poprawę ich tempa rekonwalescencji i jakości otrzymywanej opieki”. Kiedy ludzie zacząć przeprowadzać wywiady rozwojowe z klientami, nie są pewni, jakie pytania zadać. Ale jako prezes USA Cycling Abramson miał wiedzę podstawową i istniejącą sieć kontaktów, co pozwoliło mu bezpośrednio przejść do kilku szybkich ankiet. Abramson zapytał, jak często sportowcy doznają kontuzji, ile czasu brakuje im na zawodach, czy ich drużyny rywalizujące oferują ubezpieczenie i ile wydają pieniędzy.

Ile Google wie o Tobie : Reklama i osadzone treści

Publikowanie informacji jest podstawą treści internetowych, a blogerzy i webmasterzy często polegają na osadzonych treściach firm, takich jak Google, w celu poprawy jakości swoich witryn. Niestety, osadzanie treści osób trzecich jest równoznaczne z umieszczaniem błędu internetowego na stronach internetowych [2], ostrzeganiem źródła osadzonej treści o obecności użytkownika w danej witrynie oraz ułatwianiem logowania, profilowania i pobierania odcisków palców. Co ważniejsze, źródło treści strony trzeciej może agregować te pojedyncze wystąpienia i śledzić użytkowników podczas przeglądania sieci. To pojęcie zasługuje na powtórzenie: prosta czynność przeglądania sieci w wielu różnych witrynach ma potencjał do generowania ciągłego strumienia informacji z powrotem do dostawców treści stron trzecich. Im bardziej popularna jest dana usługa strony trzeciej, tym więcej witryn będzie rozmieszczać swoje treści i tym większe będzie okno widoczności aktywności użytkowników podczas surfowania po sieci. W przypadku sieci reklamowych, takich jak Google / DoubleClick i usług analizy internetowej, takich jak Google Analytics, ryzyko jest rzeczywiście duże. W tym rozdziale omówiono zagrożenia związane z osadzonymi treściami, koncentrując się na sieci reklamowej Google i Google Analytics, ale zawiera również przegląd innych form osadzonych treści, które stanowią powiązane ryzyko, takich jak osadzone filmy z YouTube, mapy i usługa czatu wstecznego Google.

Zaufanie w Cyberspace : Binarny algorytm budowania prób

W rzeczywistych bazach danych dane są reprezentowane przez zestaw widoków V, które nakładają się. W podejściu opartym na binarnych trie autorzy zakładają, że istnieje proces używany do podzielenia tych widoków na oddzielne kategorie, tak że Ci∩Cj = Ø jeśli i ≠ j. Ponadto użytkownicy mający takie same uprawnienia do kategorii są zorganizowani w jednej grupie. Podobnie jak wszystkie inne prace związane z kontrolą dostępu w zewnętrznych bazach danych, biorąc pod uwagę system z zestawem G grup i zestawem C kategorii, podejście to zakłada również, że zasady kontroli dostępu są reprezentowane w macierzy A mającej | G | rzędy i | C | kolumny. Trie (Fredkin, 1960) to uporządkowana struktura danych drzewa, która została wykorzystana do różnych zastosowań, takich jak budowa systemów baz danych, słowniki języka naturalnego, tworzenie sieci (Medhi i Ramasamy, 2007) itp. algorytm konstrukcji trie, który przyjmuje macierz dostępu A jako dane wejściowe i zwraca binarną trie jako wyjście. Mając macierz dostępu A, ∀ I, j∈N dla j: = 1: | c | algorytm skanuje a [g, j], i dla i | g | każda kategoria jest skanowana w bitach. Następnie dla każdego wpisu A [i, j] stosowana jest funkcja Insertvalue (wartość, pozycja) do wstawienia wartości bitu na bieżącej pozycji w trie binarnej. Tutaj istnieją dwa przypadki: (1) dla wartości bitu 1, jeśli istnieje prawy węzeł potomny, wpisany AccessNb zostanie zwiększony o 1. W przeciwnym razie tworzony jest nowy prawy węzeł o wartości AccessNb równej 1, a jego zawartość będzie być konkatenacją wartości zawartości swojego rodzica i bit 1; i (2) podobnie, dla wartości bitu 0, jeśli istnieje lewy węzeł potomny, pole AccessNb będzie zwiększane o 1. W przeciwnym razie tworzony jest nowy lewy węzeł o AccessNb równym 1, a jego zawartość będzie połączeniem wartość zawartości jego rodzica i bitu 0

Zalety. Ta struktura jest elastyczna w odniesieniu do praw dostępu nadawanych dynamicznie użytkownikom i wzrostu dostępnego zestawu danych. Skutecznie radzi sobie z tymi wszystkimi zmianami bez konieczności symetrycznej rekonstrukcji. Podejście to opiera się na algorytmie wyprowadzania klucza, dzięki czemu binarna trie jest szczegółowo skanowana od lewej do prawej – pierwszy sposób. Podejście to zapewnia również dobrą elastyczność w przypadku aktualizacji praw dostępu. Jedynym przypadkiem, w którym należy ponownie wprowadzić kategorie, jest unieważnienie klucza użytkownika. Mechanizm umożliwia generowanie klucza offline i wykorzystuje hierarchiczne metody wyprowadzania klucza przy użyciu jednokierunkowej funkcji skrótu. Zaletą tego podejścia jest wydajne generowanie pierścienia kluczy grupowych z binarnej struktury trie zgodnie z ich uprawnieniami oraz zmniejszenie kosztu zarządzania kluczami w przypadku modyfikacji zasad kontroli dostępu.

Ograniczenia. W tym podejściu wzrost głębokości binarnego trie wraz ze wzrostem liczby grup będzie miał wpływ na czas generowania klucza. Ale podejście to nie zmniejsza liczby kluczy posiadanych przez grupę i obserwuje się, że grupy na niskim poziomie struktury posiadają dużą liczbę kluczy. Ponownie, podejście oparte na binarnych trie nie rozwiązuje całkowicie dobrze znanego problemu ponownego wprowadzania danych z powodu cofnięcia praw użytkownika

Ciemna Strona Neta : Dlaczego ostateczna poprawka technologiczna jest dostępna online

To nie wszystko wina Google. Jest coś w Internecie i jego etosie „zrób to sam”, co zachęca do niekończącej się produkcji szybkich rozwiązań, co przypomina wnikliwą obserwację matematyka Johna von Neumanna, że ​​„możliwości technologiczne są nie do odparcia dla człowieka. Jeśli człowiek może polecieć na księżyc, to zrobi. Jeśli zdoła panować nad klimatem, to zrobi ”(choć w tym ostatnim punkcie von Neumann mógł być trochę zbity z tropu). Wydaje się, że w Internecie wszystko jest nie do odparcia, choćby dlatego, że wszystko jest w zasięgu ręki. To Internet, a nie energia jądrowa, jest powszechnie postrzegany jako ostateczne rozwiązanie technologiczne wszystkich problemów ludzkości. Nie rozwiąże ich to, ale może sprawić, że będą mniej widoczne lub mniej bolesne. W miarę jak Internet obniża koszty poprawek technologicznych, rośnie też pokusa ich stosowania jeszcze bardziej agresywnie i bezkrytycznie, a im łatwiej je wdrożyć, tym trudniej jest krytykom wewnętrznym argumentować, że takich poprawek w ogóle nie należy próbować. W większości organizacji niski koszt – a zwłaszcza w czasach głębokich zmian technologicznych – jest zwykle wystarczająco mocnym powodem, aby spróbować czegoś, nawet jeśli w danym momencie nie ma to strategicznego sensu. znalezienie szybkiego rozwiązania jest rzeczywiście nie do odparcia. Decydenci też nie są odporni na takie pokusy. Kiedy założenie serwisu społecznościowego dla aktywistów w jakimś autorytarnym kraju jest tak łatwe i tanie, typową reakcją jelita jest zazwyczaj „To powinno być zrobione”. To, że umieszczanie danych osobowych wszystkich dysydentów na jednej stronie internetowej i ujawnianie powiązań między nimi może przeważyć nad korzyściami płynącymi z zapewnienia aktywistom tańszego sposobu komunikacji, staje się problemem dopiero z mocą wsteczną. W większości przypadków, jeśli można to zrobić, zostanie to zrobione. Adresy URL zostaną kupione, strony zostaną utworzone, aktywiści zostaną uwięzieni, a potępiające komunikaty prasowe zostaną wydane. Podobnie, biorąc pod uwagę niezaprzeczalne mobilizacyjne zalety telefonu komórkowego, można zacząć go wychwalać, zanim zdamy sobie sprawę, że zapewnił on także tajnej policji unikalny sposób śledzenia, a nawet przewidywania, gdzie mogą wybuchnąć protesty. Problem z większością poprawek technologicznych polega na tym, że wiążą się one z kosztami nieznanymi nawet ich najbardziej zagorzałym zwolennikom. Historyk nauki Lisa Rosner twierdzi, że „rozwiązania technologiczne, ponieważ atakują objawy, ale nie eliminują przyczyn, mają nieprzewidziane i szkodliwe skutki uboczne, które mogą być gorsze niż problem społeczny, który mieli rozwiązać”. Trudno się z tym nie zgodzić, tym bardziej w przypadku internetu. Kiedy aktywizm cyfrowy jest przedstawiany jako nowa platforma kampanii i organizacji, zaczyna się zastanawiać, czy jego skutki uboczne – dalsze oderwanie się między tradycyjnymi siłami opozycyjnymi, które uprawiają prawdziwą politykę, bez względu na to, jak ryzykowne i nudne, a młodsze pokolenie, pasjonujące się kampanią na Facebook i Twitter – przeważyłyby nad korzyściami płynącymi z tańszej i sprawniejszej komunikacji. Jeśli ukryte koszty aktywizmu cyfrowego obejmują utratę spójności, moralności, a nawet trwałości ruchu opozycyjnego, może nie być rozwiązaniem wartym poszukiwania. Innym problemem związanym z poprawkami technologicznymi jest to, że zwykle opierają się one na niezwykle wyrafinowanych rozwiązaniach, które nie są łatwo zrozumiałe dla laików. Twierdzenia ich zwolenników są więc prawie nieprzeniknione dla zewnętrznej kontroli, a ich ambitna obietnica – usunięcie jakiegoś głęboko zakorzenionego społecznego zła – sprawia, że ​​taka kontrola, nawet jeśli jest możliwa, jest trudna do zrealizowania. Nic dziwnego, że niebezpieczna fascynacja rozwiązywaniem wcześniej trudnych do rozwiązania problemów społecznych za pomocą technologii pozwala partykularnym interesom na ukrycie tego, co w istocie sprowadza się do reklamy ich produktów handlowych w języku wolności i wyzwolenia. To nie przypadek, że ci, którzy najgłośniej głoszą, że najbardziej palące problemy wolności w Internecie można rozwiązać przez zerwanie szeregu zapór ogniowych, to ci sami ludzie, którzy opracowują i sprzedają technologie potrzebne do ich złamania. Oczywiście nie mają motywacji, aby wskazywać, że trzeba walczyć z innymi, nietechnologicznymi problemami lub ujawniać problemy za pomocą własnych technologii. Założyciele Haystack rzadko zadawali sobie trud, aby zwrócić uwagę na błędy we własnym oprogramowaniu – nie mówiąc już o ujawnieniu, że jest ono nadal na etapie testowania – a media nigdy nie zadały sobie trudu, aby o to zapytać. kwestie technologiczne wymagają  dobrego zrozumienia kontekstu społeczno-politycznego, w którym dana technologia ma być używana. Wskazuje to na inny często przeoczany problem: nasze rosnące zaangażowanie w narzędzia, których używamy do wdrażania „poprawek technologicznych” w przypadku ważnych problemów globalnych, znacznie ogranicza naszą zdolność do krytykowania tych, którzy posiadają prawa do tych poprawek. Każdy nowy artykuł lub książka o rewolucji na Twitterze nie jest triumfem ludzkości; to triumf działu marketingu Twittera. W rzeczywistości marketingowi geniusze z Doliny Krzemowej mogą być bardzo zainteresowani wprowadzeniem w błąd opinii publicznej co do podobieństwa między zimną wojną a dniem dzisiejszym: The Voice of America i Radio Free Europe nadal cieszą się dużą przychylnością dla decydentów, a Twitter i Facebook są widoczne ponieważ ich cyfrowe odpowiedniki nie szkodzą ich rozgłosowi.

Audyt Mózgu Hackera : Uprawniony odbiorca i Solar Sunrise

Mniej więcej w tym samym czasie, gdy Prezydencka Komisja ds. Ochrony Infrastruktury Krytycznej opracowywała swój raport w 1997 r., Departament Obrony Stanów Zjednoczonych (DoD) przeprowadził ściśle tajne ćwiczenie bez powiadomienia. Celem ćwiczenia było naśladowanie zagranicznego cyberataku na Departament Obrony i przetestowanie jego zdolności planowania i działań kryzysowych, o kryptonimie Kwalifikowalny odbiornik 97. W ciągu kilku tygodni czerwca tego roku zespół rządowych hakerów przedstawiający wrogie państwo z powodzeniem zaatakował wiele wojskowych komputerów i sieci. Łatwość, z jaką uzyskali dostęp, zaszokowała urzędników i ujawniła poważne luki w systemach informatycznych DoD. Ćwiczenie było realne – doszło do rzeczywistego ataku na kluczowe systemy informacyjne DoD, wykorzystującego znane luki w zabezpieczeniach i skutkującego prawdziwymi zakłóceniami zauważonymi przez niektórych administratorów systemu Ataki przeprowadzono z komercyjnych kont internetowych oraz wykorzystano narzędzia i techniki zaczerpnięte z badania open source. Podczas ćwiczenia członkowie zespołu atakującego uzyskali uprawnienia roota lub administratora do kilkudziesięciu systemów komputerowych; potrafili czytać i modyfikować e-maile, pliki i hasła; a nawet byli w stanie zakłócać niektóre usługi telefoniczne. Na zakończenie ćwiczenia poczyniono kilka kluczowych obserwacji:

* Informacyjne i operacyjne praktyki bezpieczeństwa były słabe i znacząco przyczyniły się do ogólnych luk w zabezpieczeniach DoD.

* Uzyskanie atrybutu ataków jest prawie niemożliwe i zazwyczaj jest niedokładne.

* Departament Obrony nie miał prawie żadnych środków, aby wykryć lub ocenić wpływ cyberataków.

* Nieliczne istniejące metody wykrywania, zgłaszania i reagowania były zbyt wolne w porównaniu z szybkością cyberataków.

* Żadne specjalne narzędzia ani techniki nie były potrzebne poza tymi dostępnymi za pośrednictwem kanałów open source, aby poważnie obniżyć lub zakłócić działanie komputerów i sieci DoD.

UWAGA: W czasie ćwiczenia istniała ogólna wiedza na temat narastających luk w zabezpieczeniach i wynikających z nich zagrożeń dla bezpieczeństwa sieci DoD, ale niewiele zrobiono, aby zmienić sposób prowadzenia działalności. Wielu starszych przywódców uważało, że odkrycia pochodzą z symulacji, więc nie odzwierciedlają prawdziwej natury zagrożenia. Konsensus był taki, że „prawdziwy” dostęp do systemów DoD był możliwy tylko poprzez specjalnie spreparowane ataki. Ten pogląd zmieni się około pół roku później.

Na początku lutego 1998 r. Stany Zjednoczone przygotowywały się do potencjalnej akcji wojskowej przeciwko Irakowi w odpowiedzi na spory ONZ dotyczące inspekcji uzbrojenia. W trakcie przygotowań rozpoczął się subtelny atak na sieci komputerowe DoD. Schemat ataku wyglądał jak przygotowania do większego ataku na wszystkie systemy informacyjne i komunikacyjne wydziału. Wygląda na to, że ataki pochodzą ze stron w Izraelu, Francji, Niemczech, Tajwanie i Zjednoczonych Emiratach Arabskich, a ataki wymierzone były w systemy komputerowe Sił Powietrznych, Marynarki Wojennej i Korpusu Piechoty Morskiej na całym świecie. ten sam profil ataku na każdy cel:

Skanowanie i badanie sieci w celu znalezienia wrażliwych systemów

* Wykorzystanie luki

* Ładowanie programu do wąchania w celu zebrania nazw użytkowników, haseł i innych danych

* Wracając później, aby zebrać wyszukane dane

Departament Obrony i inne agencje rządowe przeszły w 24-godzinny tryb reagowania kryzysowego, zainstalowały systemy wykrywania włamań w kluczowych sieciach i rozpoczęły intensywne prace śledcze w celu ustalenia źródła ataków. Śledczy zaczęli nazywać sprawę nowym kryptonimem – Solar Sunrise. Poszukiwano kilku śladów, ale nie było jasne, czy ataki pochodziły z Iraku, grupy terrorystycznej, zagranicznej agencji wywiadowczej, czy może niektórych hakerów zatrudnionych w celu uzyskania dostępu do systemów DoD. Dla Departamentu Obrony podobieństwa między atakiem z lutego 1998 r. A ćwiczeniami z czerwca 1997 r. Były niepokojące. W obu przypadkach departament nie dysponował skutecznymi wskazówkami ani systemem ostrzegania, co oznacza, że ​​nie był w stanie zobaczyć żadnego z nadchodzących ataków. Systemy wykrywania włamań były dostępne, ale nie były szeroko stosowane i niezbyt dobrze poznane. Nie było planu ani organizacji obejmującej cały dział ani organizacji obrony przed atakami z sieci komputerowej. Identyfikacja grup, profili i motywacji cyberzagrożeń prawie nie istniała. Po tygodniach śledztwa napastnikami okazała się para nastolatków z Kalifornii, a ich przewodnikiem był nastolatek z Izraela. Znany jako The Analyzer, przez kilka tygodni unikał schwytania, a nawet udzielał wywiadów reporterom podczas ucieczki. w Iraku. Ataki nie spowodowały żadnych poważnych szkód w systemach DoD, ale ze względu na współzależność cywilnych i wojskowych baz danych logistycznych oraz sieci z niesklasyfikowanymi sieciami komputerowymi departamentu, potencjalne oddziaływanie podczas wzmożonych napięć z Irakiem było bardzo duże.

Lean Customer Development : Ile wywiadów wystarczy?

Jak wspomniałem wcześniej, prawdziwa odpowiedź brzmi: „to zależy”. Zapamietaj to ,celem rozwoju klienta jest zmniejszenie ryzyka. W związku z tym liczba wywiadów, które musisz przeprowadzić, jest odwrotnie skorelowana z:

  • Doświadczenie w zakresie rozwoju klientów i domeny
  • Złożoność modelu biznesowego i liczba zależności
  • Inwestycja wymagana do stworzenia i zweryfikowania MVP

Doświadczenie z rozwojem klienta i branżą Im więcej doświadczenia i komfortu w rozwoju klienta, tym mniej rozmów kwalifikacyjnych potrzebujesz. (I to nie jest dlatego, że zastępujesz swój osąd za wyjście z budynku i rozmowę z ludźmi!) Twoja lepsza zdolność kierowania reklam do osób oznacza, że ​​na wczesnym etapie będziesz rozmawiać z większą liczbą właściwych osób. Zadawanie lepszych pytań zapewnia lepszy wgląd. Podobnie znajomość klientów lub branży skraca cykl, ponieważ wczesne hipotezy są oparte na bieżących zachowaniach, wzorcach podejmowania decyzji i wyrażonych potrzebach. Nadal jest mało prawdopodobne, aby miały całkowitą rację, ale będziesz mieć mniej czasu na próby i błędy. Kiedy byłem w Yodlee, przez kilka lat pracowałem z naszymi użytkownikami, zanim wprowadziłem wywiady dotyczące rozwoju klientów. Miałem już spory wgląd w to, jak użytkownicy zarządzają swoimi finansami w trybie online i offline, więc mogłem uciec z mniejszą liczbą wywiadów, zanim zacząłem tworzyć funkcje produktu.

Ile Google wie o Tobie : Podsumowanie

Stoimy w obliczu dwóch głównych zagrożeń dotyczących mapowania i tworzenia obrazów online: poufnych informacji, które ujawniamy w ramach naszych interakcji z tymi usługami, oraz samej treści. Nasze interakcje ujawniają interesujące nas lokalizacje i czas, w którym byliśmy nimi zainteresowani. Możemy ujawnić plany podróży, poufne obiekty, nasze domy lub inne wrażliwe miejsca. Usługi wyznaczania kierunków wskazują konkretne miejsca docelowe, a także prawdopodobne trasy, którymi się wybierzesz. Sieci społecznościowe pojawiają się, gdy udostępniamy te lokalizacje za pośrednictwem hiperłączy naszym przyjaciołom, rodzinom, współpracownikom i czytelnikom naszych blogów. Nawet pozornie niespokrewnione osoby mogą zostać połączone, ponieważ badają podobne lokalizacje lub szukają wskazówek. Sama treść również budzi istotne obawy dotyczące bezpieczeństwa. Twój dom, samochód, miejsce pracy, być może nawet Ty, prawdopodobnie istnieje w terabajtach danych zdjęciowych obejmujących Google Earth, Mapy Google, StreetView i podobne usługi. W przyszłości możemy śmiało założyć, że liczba czujników zbierających informacje wzrośnie. Oprócz obrazów statycznych zobaczymy wideo, być może połączone z danymi z naziemnych czujników dźwięku. Widzimy teraz wczesne podejścia. Firma Wild Sanctuary z siedzibą w Kalifornii ponad 3500 godzin „pejzaży dźwiękowych” i oprogramowania, które może nakładać odpowiednie nagrane dźwięki na Google Earth. AstroVision niedawno ogłosił swoje plany dostarczenia „pierwszego na żywo, ciągłego, rzeczywistego koloru obrazu Ziemi z kosmosu”. [36] W publicznie dostępnych systemach widzimy tylko stosunkowo oczyszczone dane. Jednak, chociaż prawdopodobnie dzieje się to dzisiaj, w przyszłości łatwo wyobrazić sobie międzynarodowe korporacje sponsorujące przeloty korporacyjne w ważnych miejscach. Dziś widzimy potężną, opartą na współpracy analizę zdjęć za pośrednictwem takich witryn, jak Google Sightseeing i Wikimapia, ale w przyszłości możemy spodziewać się, że zaawansowane automatyczne przetwarzanie rozszerzy te zorientowane na człowieka podejścia. Postępy w rozpoznawaniu twarzy, wizji maszynowej, eksploracji danych, a nawet automatycznym odczytywaniu ruchu warg mogą pewnego dnia zostać zastosowane do danych z czujników w skali globalnej. Bardziej niepokojące jest to, że przyszły postęp można zastosować do wszystkich danych historycznych. Chociaż system eksploracji danych nie jest obecnie w stanie zidentyfikować wszystkich twarzy w StreetView Google, przyszły system może mieć taką możliwość.  W ich sercu strony z mapami, wskazówkami i zdjęciami polegają na łączeniu danych z czujników z innymi informacjami semantycznymi, takimi jak dane o ruchu drogowym, w jednolite, łatwe w użyciu narzędzie. Chciałbym zasugerować proste do wdrożenia środki zaradcze, które pomogą chronić Twoją prywatność przed czujnikami monitorującymi. Niestety ten dżin wyskoczył z butelki; dopóki nie zobaczymy poważnych zmian w przepisach dotyczących prywatności, musimy poszukać nowego podejścia do prywatności i nauczyć się żyć w tym środowisku. Obecnie państwa narodowe mogą stosować tak ekstremalne środki, jak pociski antysatelitarne , a armie mogą stosować oszustwa i kamuflaż na polu bitwy, próbując ograniczyć skuteczny nadzór. Obie te rzeczy są nierealne dla nas, przeciętnych obywateli. Jak trafnie ujął to jeden z przyjaciół: „Nie chcę mieszkać w miejscu, w którym muszę nosić maskę narciarską w moim lokalnym centrum handlowym, aby chronić swoją prywatność”

Zaufanie w Cyberspace : Podejście oparte na próbach

W tym binarnym podejściu do generowania kluczy i zarządzania nimi  każda kategoria jest traktowana jako ciąg binarny reprezentujący ścieżkę od korzenia trie do liścia. Zarządzanie strukturą nie sugeruje częściowej kolejności wierzchołków, chociaż zachowana jest idea wyprowadzania klucza w celu zminimalizowania liczby rozproszonych kluczy. Takie podejście zmniejsza złożoność zarządzania kluczami, wykorzystując wewnętrzne właściwości binarnego trie. Ta struktura ma wiele właściwości, które sprawiają, że nadaje się do kontroli dostępu. Ponieważ klucze nie są ściśle powiązane z kontrolerami AC, większość aktualizacji zasad dostępu do danych nie wymaga znaczących zmian w strukturze, co ogranicza generowanie kluczy, a tym samym ponowne wprowadzanie danych.

Ciemna Strona Neta : Wicked Fix

W 1966 roku magazyn University of Chicago opublikował krótki, ale niezwykle prowokacyjny esej Alvina Weinberga, wybitnego fizyka i szefa Oak Ridge National Laboratory, niegdyś ważnej części Projektu Manhattan. Zatytułowany „Czy technologia może zastąpić inżynierię społeczną?” esej, który najlepiej można opisać jako „cri de coeur” inżyniera, dowodził, że „głębokie i nieskończenie skomplikowane problemy społeczne” można obejść i zredukować do prostszych problemów technologicznych. Te ostatnie z kolei można rozwiązać, stosując do nich „szybkie poprawki technologiczne”, poprawki, które „mieszczą się w zasięgu współczesnej technologii i które albo wyeliminowałyby pierwotny problem społeczny bez konieczności zmiany postaw społecznych jednostki, albo tak zmieniłby problem, aby jego rozwiązanie było bardziej wykonalne ”. Jednym z powodów, dla których ten esej przyciągnął tak wiele uwagi, był fakt, że ostatecznym rozwiązaniem technologicznym Weinberga – tym, który mógł zakończyć wszystkie wojny – była bomba wodorowa. Argumentował, że „znacznie zwiększa to prowokację, która przyspieszyłaby wojnę na dużą skalę”, a więc Sowieci uznają jej destrukcyjną siłę i w rezultacie będą utrzymywać znacznie mniej militarystyczną postawę. To był interesujący argument do wysunięcia w 1966 r., A esej jest nadal aktualny. Fascynacja Weinberga z „poprawkami technologicznymi” był w dużej mierze wynikiem frustracji inżyniera z inną, niezmiennie mniej podatną na opanowanie i bardziej kontrowersyjną alternatywą tamtych czasów: socjotechniką. Inżynierowie społeczni, w przeciwieństwie do technologów, próbowali wpływać na popularne postawy i zachowania społeczne obywateli poprzez to, co nietechnologowie nazywają „polityką”, ale to, co Weinberg określił jako „urządzenia społeczne”: edukację, regulacje i skomplikowaną mieszankę zachęt behawioralnych. Biorąc pod uwagę, że technologia może pomóc w skuteczniejszej realizacji tych samych celów, Weinberg uważał, że inżynieria społeczna jest zbyt kosztowna i ryzykowna. Pomogło również to, że „poprawki technologiczne” nie wymagały głębokich zmian w ludzkim zachowaniu, a zatem były bardziej niezawodne. Jeśli ludzie są narażeni na napady nadmiernego picia, preferowaną reakcją Weinberga nie byłoby organizowanie publicznej kampanii ostrzegającej ich przed odpowiedzialnym piciem lub nakładaniem wyższych kar za jazdę pod wpływem alkoholu, ale zaprojektowanie pigułki, która pomogłaby osłabić wpływ alkoholu. Ludzka natura była zepsuta, a rozwiązanie Weinberga polegało po prostu na zaakceptowaniu tego i obejściu tego. Weinberg nie miał złudzeń, że eliminuje pierwotne przyczyny problemu; wiedział, że rozwiązania technologiczne nie mogą tego zrobić. Wszystko, co technologia mogła zrobić, to złagodzić społeczne konsekwencje tego problemu, „zapewnić inżynierowi społecznemu szersze możliwości, uczynić trudnymi do rozwiązania problemy społeczne mniej ewolucja.” Było to pragmatyczne podejście pragmatycznego człowieka.

Po opublikowaniu eseju Weinberga zapoczątkował gorącą debatę między technologami a inżynierami społecznymi. Ta debata trwa do dziś, po części dlatego, że Google, założone przez duet niezwykle ambitnych inżynierów biorących udział w krucjacie mającej na celu „uporządkowanie światowych informacji i uczynienie ich powszechnie dostępnymi i użytecznymi”, umieściło produkcję poprawek technologicznych na czymś w rodzaju skala przemysłowa. Udostępnić wiedzę ze świata wszystkim? Zrób zdjęcia wszystkich ulic na świecie? A może chcesz załadować światowe książki do skanera i zająć się później konsekwencjami? Nazwij problem, który ma do czynienia z informacjami, a Google już się tym zajął.