Ile Google wie o Tobie : Śledzenie między witrynami

Jak wspomniano wcześniej, wiele witryn internetowych zawiera treści osób trzecich. Treści osób trzecich mogą przybierać między innymi formę legalnych obrazów i klipów wideo, ale można ich również używać do śledzenia użytkowników przeglądających strony internetowe. Reklamodawcy i usługi analityki internetowej zapewniają webmasterom kuszące narzędzia analityczne i zyski z reklamy, wymagając po prostu, aby w zamian webmasterzy dodawali małe fragmenty kodu HTML i JavaScript do swoich stron. Niestety, takie treści należące do osób trzecich stanowią poważne zagrożenie dla prywatności i ujawniania informacji w sieci, ponieważ przeglądarka internetowa użytkownika automatycznie odwiedza te serwery osób trzecich , na których ich wizyta jest prawdopodobnie rejestrowana, a przeglądarka jest oznaczona plikami cookie. Co ważniejsze, im większa jest sieć reklamowa, tym większe okno ma dana firma na aktywność online użytkownika. Na przykład, jeśli użytkownik odwiedza 100 różnych witryn internetowych, z których każda zawiera reklamy z jednej usługi reklamowej, usługa ta może obserwować użytkownika, gdy odwiedza każdą witrynę. Rysunek  przedstawia śledzenie w wielu witrynach za pośrednictwem sieci reklamowej.

W liczbach ta oznacza, że ​​użytkownik odwiedza sześć różnych witryn internetowych, z których każda zawiera treści od jednego reklamodawcy. Z kolei wizyty użytkownika tworzą jeden zestaw wpisów dziennika na każdym z sześciu legalnych serwerów. Ponieważ jednak każda wizyta zawierała reklamę z jednej sieci reklamowej, reklamodawca może zarejestrować wszystkie sześć wizyt.

W świecie bez treści osób trzecich użytkownik powinien po prostu otrzymywać treści z domeny MSNBC, msnbc.msn.com. Jednak w rzeczywistości użytkownik odwiedza 16 dodatkowych domen z 10 różnych firm. Dwie z tych domen, DoubleClick i GoogleAnalytics, są własnością Google. Przeglądarka internetowa zapewnia użytkownikowi niewielką pomoc w wykrywaniu treści pochodzących od osób trzecich. Użytkownik po prostu widzi, jak pasek stanu przeglądarki szybko miga, gdy przeglądarka kontaktuje się z każdą nową witryną. Pomyśl o tym. Samo odwiedzenie pojedynczej strony internetowej z popularnego serwisu informacyjnego informuje 16 serwerów innych firm o wizycie, co jest 16-krotnym powiększeniem logowania. Nie jest to wytworzony przykład, ale reprezentuje powszechną praktykę. Osadzanie treści osób trzecich w witrynach internetowych jest wszechobecne, podobnie jak problem. W rezultacie internauci są często śledzeni przez firmy, o których nawet nie słyszeli. Warto również wziąć pod uwagę, że udostępnianie informacji za pośrednictwem treści osadzonych nie odbywa się tylko z „stronami trzecimi” – udostępnianie może również mieć miejsce między pozornie odrębnymi podmiotami, które są faktycznie własnością tej samej firmy macierzystej. Na przykład wyszukiwanie A9 engine (firma Amazon.com) wstawia reklamy książek Amazon związane z wyszukiwanym hasłem obok wyników wyszukiwania. Te reklamy pozwalają Amazonowi śledzić, czego użytkownicy A9 szukają, klikają i prawdopodobnie kupują online. Jeśli użytkownik dokona zakupu na Amazon.com, Amazon zna jego rzeczywistą tożsamość, w tym informacje dotyczące rozliczeń i wysyłki. W przypadku A9 Amazon wyjaśnia na stronie A9, że A9 jest firmą Amazon.com, ale ważną ideą jest to, że własność korporacyjna – a co za tym idzie, niejawna wymiana informacji – może nie być oczywista, gdy użytkownicy przeglądają sieć.

Zaufanie w Cyberspace : Rozwiązania do egzekwowania zasad po stronie klienta i serwera

W przypadku rozwiązań egzekwujących zasady po stronie użytkownika odwołanie klucza stwarza problem, gdy uprawnienia użytkownika są odbierane. Aby przezwyciężyć ograniczenia, rozwiązania egzekwowania zasad po stronie użytkownika, zaproponowano rozwiązania do zarządzania kluczami współdzielonymi, w których polityka dostępu jest współdzielona między aktorami. Podstawową ideą jest to, że użytkownik nie powinien posiadać całego klucza, który może nadal pomagać w dostępie do danych, nawet po odmowie dostępu. Poniższe podejścia mają na celu zmniejszenie złożoności dostarczania kluczy.

Ciemna Strona Neta : O czym rozmawiamy, gdy mówimy o kodzie

Być może najbardziej niepokojące jest przeformułowanie problemów społecznych jako serii problemów technologicznych, które odwracają uwagę decydentów od rozwiązywania problemów, które nie mają charakteru technologicznego i nie można ich przeformułować. Ponieważ media wciąż dominują nad rolą, jaką telefony komórkowe odegrały w napędzaniu wzrostu gospodarczego w Afryce, decydenci nie mogą sobie pozwolić na zapominanie, że same innowacje nie uwolnią afrykańskich narodów od wszechobecnej korupcji. Takie osiągnięcie będzie wymagało dużej woli politycznej. W przypadku jego braku, nawet najbardziej wyszukana technologia poszłaby na marne. Fundusze na komputeryzację Sudanu pozostałyby niewydane, a komputery pozostałyby nietknięte, o ile wielu polityków regionu jest „bardziej przyzwyczajonych do noszenia AK-47 i organizowania zasadzek niż pisania na laptopach”, jak pisał dla Financial Times tak trafnie to ujął. Wręcz przeciwnie, kiedy wprowadzamy do takich ustawień wielofunkcyjną technologię, taką jak telefon komórkowy, często może ona mieć skutki uboczne, które tylko pogłębiają istniejące problemy społeczne. Kto mógł to przewidzieć, dowiadując się o wielu możliwościach transferu pieniędzy oferowanych przez bankowość mobilną, Kenijscy policjanci zażądaliby, aby kierowcy płacili teraz łapówki za pomocą znacznie łatwiejszych do ukrycia transferów czasu lotniczego zamiast gotówki? W przypadku braku silnych instytucji politycznych i społecznych technologia może jedynie przyspieszyć upadek władzy państwowej, ale łatwo jest stracić z oczu dynamikę świata rzeczywistego, gdy jest się tak zafascynowanym rzekomą błyskotliwością rozwiązania technologicznego. W przeciwnym razie decydenci ryzykują, że popadną w bezmyślny podziw dla technologii jako panaceum, które brytyjski architekt Cedric Price kiedyś wyśmiał, zastanawiając się: „Technologia jest odpowiedzią, ale jakie było pytanie?” Kiedy poprawki techniczne zawodzą, ich zwolennicy zwykle szybko sugerują inną, skuteczniejszą poprawkę techniczną jako remedium – i zwalczają ogień ogniem. Oznacza to, że chcą walczyć z problemami technologii za pomocą jeszcze większej ilości technologii. To wyjaśnia, dlaczego walczymy ze zmianą klimatu, jeżdżąc bardziej oszczędnymi samochodami i chroniąc się przed inwigilacją internetową, polegając na narzędziach, które szyfrują nasze wiadomości i ukrywają naszą tożsamość. Często to tylko pogarsza sytuację, ponieważ wyklucza bardziej racjonalną i wszechstronną dyskusję na temat pierwotnych przyczyn problemu, zmuszając nas do radzenia sobie z bardzo widocznymi i nieistotnymi objawami, które można zamiast tego tanio wyleczyć. Tworzy to niekończącą się i niezwykle kosztowną grę w kotka i myszkę, w której, gdy problem się pogarsza, społeczeństwo jest zmuszone do finansowania jeszcze nowszych, potężniejszych narzędzi, aby go rozwiązać. W ten sposób unikamy poszukiwania bardziej efektywnego nietechnologicznego rozwiązania, które będąc droższe (politycznie lub finansowo) w krótkim okresie, mogłoby zakończyć problem raz na zawsze. Powinniśmy oprzeć się pokusie naprawiania nadużyć technologii, stosując do nich jeszcze więcej technologii. Jak, na przykład, większość zachodnich rządów i fundacji zdecydowała się na walkę z cenzurą Internetu przez autorytarne rządy? Zwykle poprzez finansowanie i promowanie technologii, która pomaga ominąć ten problem. Może to być odpowiednie rozwiązanie dla niektórych krajów – na przykład Korei Północnej, gdzie zachodnie rządy mają bardzo niewielki wpływ dyplomatyczny i polityczny – ale niekoniecznie jest to najlepsze podejście do radzenia sobie z krajami, które są nominalnie zachodnimi sojusznikami. W takich przypadkach niemal wyłączne skupienie się na zwalczaniu cenzury za pomocą narzędzi antycenzuracyjnych odwraca uwagę decydentów od zajmowania się podstawowymi przyczynami cenzury, które najczęściej mają związek z nadmiernymi ograniczeniami, jakie opresyjne rządy nakładają na wolność słowa. Łatwa dostępność technologii obchodzenia środków nie powinna wykluczać decydentów z bardziej ambitnych – i ostatecznie bardziej skutecznych – sposobów zaangażowania. W przeciwnym razie zarówno rządy zachodnie, jak i autorytarne otrzymają darmową przepustkę. Demokratyczni przywódcy udają, że po raz kolejny bohatersko niszczą Mur Berliński, podczas gdy ich autorytarni odpowiednicy chętnie się z tym pogodzą, ponieważ znaleźli inne skuteczne sposoby kontrolowania Internetu. W idealnym świecie zachodnia kampania mająca na celu zakończenie cenzury Internetu w Tunezji lub Kazachstanie koncentrowałaby się przede wszystkim na wywieraniu politycznej presji na zaprzyjaźnionych z Zachodem autorytarnych władców i zajmować się również światem gazet i czasopism offline. W wielu z tych krajów dziennikarze w kagańcu nadal pozostawaliby dominującą taktyką tłumienia sprzeciwu, dopóki przynajmniej więcej ich obywateli nie wejdzie do Internetu i nie zacznie z niego korzystać w innych celach niż zwykłe używanie poczty elektronicznej lub czatowanie z bliskimi za granicą. drwali w Tadżykistanie w celu obejścia rządowego systemu kontroli Internetu niewiele znaczy, gdy zdecydowana większość populacji otrzymuje informacje z radia i telewizji. Poza swoimi przemyśleniami na temat bomb wodorowych i wojny, Weinberg nie dyskutował o tym, jak poprawki technologiczne mogą wpłynąć na politykę zagraniczną. Niemniej jednak wciąż można prześledzić, jak tendencja do ujmowania problemów polityki zagranicznej w kategoriach poprawek technologicznych wpłynęła na myślenie Zachodu o rządach autorytarnych i roli, jaką może odegrać Internet w ich podważaniu. Jedną z najbardziej charakterystycznych cech argumentacji Weinberga było przekonanie, że łatwa dostępność jasnych rozwiązań technologicznych może pomóc decydentom lepiej zrozumieć i zidentyfikować problemy, z którymi się borykają. „Problemy [społeczne] są w pewnym sensie trudniejsze do zidentyfikowania tylko dlatego, że ich rozwiązania nigdy nie są jednoznaczne” – napisał Weinberg. „Z drugiej strony dostępność wyraźnego i pięknego rozwiązania technologicznego często pomaga skupić się na problemie, którego rozwiązaniem jest nowa technologia”. Innymi słowy, tylko dlatego, że decydenci mają „wyraźne i piękne rozwiązanie technologiczne”, aby przebić się przez zapory ogniowe, są skłonni wierzyć, że problemem, który muszą rozwiązać, jest w rzeczywistości łamanie zapór ogniowych, podczas gdy często tak nie jest. . Podobnie, tylko dlatego, że Internet – ta ostateczna poprawka technologiczna – może pomóc zmobilizować ludzi wokół pewnych przyczyn, kuszące jest konceptualizowanie problemu również w kategoriach mobilizacji. Jest to jedna z tych sytuacji, w których wyjątkowe cechy poprawek technologicznych uniemożliwiają decydentom odkrycie wielu ukrytych wymiarów wyzwania, co prowadzi ich do identyfikacji i rozwiązywania problemów, które są łatwe do rozwiązania, a nie tych, które wymagają natychmiastowej uwagi. Wiele wezwań do zastosowania rozwiązań technologicznych do złożonych problemów społecznych trąci poruszeniem technologii dla samej technologii – technologicznym fetyszyzmem skrajnej różnorodności – któremu decydenci polityczni powinni się oprzeć. W przeciwnym razie ryzykują przepisanie ulubionego leku tylko na podstawie kilku typowych objawów, nawet nie zadając sobie trudu, aby postawić diagnozę. Ale ponieważ przepisywanie leku na kaszel komuś, kto ma raka, jest nieodpowiedzialne, tak jest to zastosowanie większej ilości technologii do problemów społecznych i politycznych, które nie mają charakteru technologicznego.

Audyt Mózgu Hackera : Nowe organizacje i nowe odkrycia

Rok 1998 był rokiem znaczącego przebudzenia zarówno w wojskowym, jak i cywilnym sektorze rządu USA. Wiosną tego roku administracja Clintona opublikowała PDD 63 i uruchomiła pierwszą z kilku organizacji, które ostatecznie stały się centralnymi komponentami Departamentu Bezpieczeństwa Wewnętrznego w 2003 roku. Narodowe Centrum Ochrony Infrastruktury stało się częścią Departamentu Sprawiedliwości, a Biuro Zapewnienia Infrastruktury Krytycznej dołączyło do Departamentu Handlu. Sektor prywatny utworzył również pierwsze z kilku sektorowych Centrów Wymiany Informacji i Analiz, z których każde jest połączone z odpowiadającym mu biurem w rządzie federalnym. ISAC to mechanizm służący sektorowi prywatnemu i publicznemu do tworzenia partnerstw w celu wymiany informacji o zagrożeniach fizycznych i cybernetycznych, podatnościach i wykrytych zdarzeniach zagrażających infrastrukturom krytycznym. Model ISAC rozwijał się powoli w kolejnych latach, ale w lutym 2000 r. ataki na główne witryny handlu elektronicznego pobudziły sektory do działania. Departament Obrony, opierając się na wynikach kwalifikującego się odbiornika 97 i Solar Sunrise, podjął szybkie kroki w 1998 r., Aby odpowiedzieć na rosnące zagrożenia w cyberprzestrzeni skierowane do sieci komputerowych DoD. działanie pod koniec roku, po kilkumiesięcznych naradach nad jego funkcją, projektem i umiejscowieniem w wydziale. Podobnie jak większość ówczesnych organizacji zajmujących się cyberobroną, JTF-CND początkowo koncentrował się na identyfikowaniu i ograniczaniu technicznych słabości komputerów i sieci komputerowych w kontrolowanych przez siebie sieciach. Równolegle z utworzeniem JTF-CND pod koniec 1998 r. Pentagon zaproponował również pomysł, aby DoD badał swoje sieci nie tylko pod kątem luk w oprogramowaniu lub braku technologii obronnych, takich jak zapory ogniowe lub systemy wykrywania włamań, ale także pod kątem witryn internetowych. i inne zasoby online, które ujawniły poufne informacje w Internecie. Propozycja ta powstała na początku 1999 roku wraz z utworzeniem Joint Web Risk Assessment Cell, jednostki rezerwowej, która w weekendy ćwiczyła w cyberprzestrzeni, a nie w Centrum Rezerw. JTF w trakcie restrukturyzacji kilka lat później. Rozpoczynając od strony internetowej DoD DefenseLINK, a następnie obejmując wszystkie zasoby internetowe DoD, JWRAC potwierdził, co cytowano z wypowiedzi zagranicznego oficera Information Warfare na początku 1998 roku:

Jestem zdumiony ilością i zawartością materiałów o otwartym kodzie źródłowym dostępnym w Internecie od armii USA i innych rządowych agencji … Wróg USA nie musi mieć konkretnych plany wojenne / operacyjne, kiedy jest tak wiele informacji o doktrynie USA powszechnie dostępne. – Odprawa JWRAC, 27 listopada 2001 r

W pierwszym roku działalności zespół zbadał setki witryn internetowych DoD i znalazł znaczące ilości informacji, które nie powinny być dostępne online, takie jak dokumenty niejawne, szczegółowe informacje o uczestnikach ćwiczeń i wyciągnięte wnioski oraz dokumenty i wiadomości przeznaczone wyłącznie do użytku oficjalnego. . Inne znalezione przez nich pozycje obejmowały plany operacyjne z załącznikami wyszczególniającymi logistykę, sprzęt i dane dotyczące siły roboczej, odprawy przeznaczone dla wybranych odbiorców, szczegółowe dane osobowe, schematy organizacyjne, zdjęcia i inne informacje, które nie powinny znajdować się w Internecie. Większość poszczególnych pozycji była sama w sobie niesklasyfikowana, ale łącznie znaczną ilość informacji niejawnych można było zebrać po prostu za pomocą wyszukiwarki internetowej i prostych słów kluczowych. Pozostała część rządu federalnego nie zajęła się tą samą luką w zabezpieczeniach informacji w swoich zasobach internetowych, dopóki po atakach terrorystycznych z września 2001 r. Nawet dzisiaj na stronach rządowych i prywatnych witryn internetowych pozostaje wiele informacji przydatnych przeciwnikowi prowadzącemu rozpoznanie infrastruktury krytycznej przed atakiem.

Lean Customer Development Złożoność modelu biznesowego i liczba zależności

Nawet jeśli jesteś ekspertem ds. Rozwoju klienta i domeny, niektóre modele biznesowe wymagają zweryfikowania większej liczby założeń. Jeśli Twoja firma jest zależna od współpracy z dostawcami, dystrybutorami lub innymi stronami trzecimi, musisz porozmawiać z tymi osobami, a także z bezpośrednimi klientami. Jeśli pośredniczysz na rynku dwustronnym, musisz słuchać obu stron i upewnić się, że wnosisz wartość dla obu stron. Może to podwoić lub potroić liczbę wywiadów, które musisz przeprowadzić. Ponieważ każda ze stron ma własne problemy i ograniczenia, musisz umożliwić wystarczającą liczbę rozmów, aby te wzorce ujawniły się dla każdego interesariusza docelowego

Inwestycja wymagana do utworzenia MVP

We wstępie wspomniałem, że spędziłem miesiąc na przeprowadzaniu wywiadów z klientami dla KISSmetrics. W tym czasie przeprowadziłem około 50 wywiadów, co jest prawdopodobnie blisko górnej granicy spektrum. Pozwólcie, że wyjaśnię, dlaczego potrzebowaliśmy tylu wywiadów, aby wesprzeć naszego MVP.

Technicznie rzecz biorąc, wersja beta KISSmetrics, która wyszła z tych 50 wywiadów, nie była pierwszym krokiem w kierunku weryfikacji klientów. Mieliśmy już witrynę przed uruchomieniem, na której setki klientów zarejestrowało się i udostępniło informacje o sobie i swoich firmach. To, co musieliśmy zweryfikować, to nie ich zainteresowanie, ale to, że nasze podejście do analityki internetowej będzie skuteczne i zróżnicowane dla klientów. W tej konkretnej sytuacji – produkt oparty na danych, w którym doświadczenie każdego klienta byłoby inne, a dokładność byłaby kluczowa – musieliśmy zainwestować znaczne zasoby inżynieryjne, aby stworzyć coś, co pozwoliłoby nam się uczyć. Dzięki zebraniu 50 wywiadów dotyczących rozwoju z klientami z góry, byliśmy w stanie maksymalnie zminimalizować tę inwestycję. Jednak ogólnie rzecz biorąc, jeśli myślisz, że będziesz potrzebować miesiąca lub więcej, aby popracować nad swoim MVP, prawdopodobnie jesteś bardzo przepracowany. Warto zasięgnąć porady mentora, który może zweryfikować Twój pomysł na MVP.

Jak przeprowadzić walidację na rynku „niemożliwym do osiągnięcia”?

Jeśli masz duże doświadczenie w dziedzinie domeny, nie musisz poświęcać czasu na poznanie przepisów, praw i zwyczajów. Mark Abramson, były prezydent USA Cycling, postawił hipotezę, że istnieje lepszy sposób na zapewnienie rowerzystom po wypadku lepszej opieki i szybszego powrotu na rowery. Szybko był w stanie zweryfikować problem i rozpocząć tworzenie rozwiązania. „Produktem” była profesjonalna organizacja Medicine of Cycling, która łączy lekarzy, zespoły kolarskie i sportowców i jest gospodarzem corocznej konferencji. Jak mówi Abramson: „Medycyna kolarstwa jest zasługą mojej żony Anny, lekarza. Rozmawiała z chirurgiem urazowym z Harvardu, który powiedział: „Zabieramy wszystkich tych rannych rowerzystów na pogotowie i myślę, że jest szansa na poprawę ich tempa rekonwalescencji i jakości otrzymywanej opieki”. Kiedy ludzie zacząć przeprowadzać wywiady rozwojowe z klientami, nie są pewni, jakie pytania zadać. Ale jako prezes USA Cycling Abramson miał wiedzę podstawową i istniejącą sieć kontaktów, co pozwoliło mu bezpośrednio przejść do kilku szybkich ankiet. Abramson zapytał, jak często sportowcy doznają kontuzji, ile czasu brakuje im na zawodach, czy ich drużyny rywalizujące oferują ubezpieczenie i ile wydają pieniędzy.

Ile Google wie o Tobie : Reklama i osadzone treści

Publikowanie informacji jest podstawą treści internetowych, a blogerzy i webmasterzy często polegają na osadzonych treściach firm, takich jak Google, w celu poprawy jakości swoich witryn. Niestety, osadzanie treści osób trzecich jest równoznaczne z umieszczaniem błędu internetowego na stronach internetowych [2], ostrzeganiem źródła osadzonej treści o obecności użytkownika w danej witrynie oraz ułatwianiem logowania, profilowania i pobierania odcisków palców. Co ważniejsze, źródło treści strony trzeciej może agregować te pojedyncze wystąpienia i śledzić użytkowników podczas przeglądania sieci. To pojęcie zasługuje na powtórzenie: prosta czynność przeglądania sieci w wielu różnych witrynach ma potencjał do generowania ciągłego strumienia informacji z powrotem do dostawców treści stron trzecich. Im bardziej popularna jest dana usługa strony trzeciej, tym więcej witryn będzie rozmieszczać swoje treści i tym większe będzie okno widoczności aktywności użytkowników podczas surfowania po sieci. W przypadku sieci reklamowych, takich jak Google / DoubleClick i usług analizy internetowej, takich jak Google Analytics, ryzyko jest rzeczywiście duże. W tym rozdziale omówiono zagrożenia związane z osadzonymi treściami, koncentrując się na sieci reklamowej Google i Google Analytics, ale zawiera również przegląd innych form osadzonych treści, które stanowią powiązane ryzyko, takich jak osadzone filmy z YouTube, mapy i usługa czatu wstecznego Google.

Zaufanie w Cyberspace : Binarny algorytm budowania prób

W rzeczywistych bazach danych dane są reprezentowane przez zestaw widoków V, które nakładają się. W podejściu opartym na binarnych trie autorzy zakładają, że istnieje proces używany do podzielenia tych widoków na oddzielne kategorie, tak że Ci∩Cj = Ø jeśli i ≠ j. Ponadto użytkownicy mający takie same uprawnienia do kategorii są zorganizowani w jednej grupie. Podobnie jak wszystkie inne prace związane z kontrolą dostępu w zewnętrznych bazach danych, biorąc pod uwagę system z zestawem G grup i zestawem C kategorii, podejście to zakłada również, że zasady kontroli dostępu są reprezentowane w macierzy A mającej | G | rzędy i | C | kolumny. Trie (Fredkin, 1960) to uporządkowana struktura danych drzewa, która została wykorzystana do różnych zastosowań, takich jak budowa systemów baz danych, słowniki języka naturalnego, tworzenie sieci (Medhi i Ramasamy, 2007) itp. algorytm konstrukcji trie, który przyjmuje macierz dostępu A jako dane wejściowe i zwraca binarną trie jako wyjście. Mając macierz dostępu A, ∀ I, j∈N dla j: = 1: | c | algorytm skanuje a [g, j], i dla i | g | każda kategoria jest skanowana w bitach. Następnie dla każdego wpisu A [i, j] stosowana jest funkcja Insertvalue (wartość, pozycja) do wstawienia wartości bitu na bieżącej pozycji w trie binarnej. Tutaj istnieją dwa przypadki: (1) dla wartości bitu 1, jeśli istnieje prawy węzeł potomny, wpisany AccessNb zostanie zwiększony o 1. W przeciwnym razie tworzony jest nowy prawy węzeł o wartości AccessNb równej 1, a jego zawartość będzie być konkatenacją wartości zawartości swojego rodzica i bit 1; i (2) podobnie, dla wartości bitu 0, jeśli istnieje lewy węzeł potomny, pole AccessNb będzie zwiększane o 1. W przeciwnym razie tworzony jest nowy lewy węzeł o AccessNb równym 1, a jego zawartość będzie połączeniem wartość zawartości jego rodzica i bitu 0

Zalety. Ta struktura jest elastyczna w odniesieniu do praw dostępu nadawanych dynamicznie użytkownikom i wzrostu dostępnego zestawu danych. Skutecznie radzi sobie z tymi wszystkimi zmianami bez konieczności symetrycznej rekonstrukcji. Podejście to opiera się na algorytmie wyprowadzania klucza, dzięki czemu binarna trie jest szczegółowo skanowana od lewej do prawej – pierwszy sposób. Podejście to zapewnia również dobrą elastyczność w przypadku aktualizacji praw dostępu. Jedynym przypadkiem, w którym należy ponownie wprowadzić kategorie, jest unieważnienie klucza użytkownika. Mechanizm umożliwia generowanie klucza offline i wykorzystuje hierarchiczne metody wyprowadzania klucza przy użyciu jednokierunkowej funkcji skrótu. Zaletą tego podejścia jest wydajne generowanie pierścienia kluczy grupowych z binarnej struktury trie zgodnie z ich uprawnieniami oraz zmniejszenie kosztu zarządzania kluczami w przypadku modyfikacji zasad kontroli dostępu.

Ograniczenia. W tym podejściu wzrost głębokości binarnego trie wraz ze wzrostem liczby grup będzie miał wpływ na czas generowania klucza. Ale podejście to nie zmniejsza liczby kluczy posiadanych przez grupę i obserwuje się, że grupy na niskim poziomie struktury posiadają dużą liczbę kluczy. Ponownie, podejście oparte na binarnych trie nie rozwiązuje całkowicie dobrze znanego problemu ponownego wprowadzania danych z powodu cofnięcia praw użytkownika

Ciemna Strona Neta : Dlaczego ostateczna poprawka technologiczna jest dostępna online

To nie wszystko wina Google. Jest coś w Internecie i jego etosie „zrób to sam”, co zachęca do niekończącej się produkcji szybkich rozwiązań, co przypomina wnikliwą obserwację matematyka Johna von Neumanna, że ​​„możliwości technologiczne są nie do odparcia dla człowieka. Jeśli człowiek może polecieć na księżyc, to zrobi. Jeśli zdoła panować nad klimatem, to zrobi ”(choć w tym ostatnim punkcie von Neumann mógł być trochę zbity z tropu). Wydaje się, że w Internecie wszystko jest nie do odparcia, choćby dlatego, że wszystko jest w zasięgu ręki. To Internet, a nie energia jądrowa, jest powszechnie postrzegany jako ostateczne rozwiązanie technologiczne wszystkich problemów ludzkości. Nie rozwiąże ich to, ale może sprawić, że będą mniej widoczne lub mniej bolesne. W miarę jak Internet obniża koszty poprawek technologicznych, rośnie też pokusa ich stosowania jeszcze bardziej agresywnie i bezkrytycznie, a im łatwiej je wdrożyć, tym trudniej jest krytykom wewnętrznym argumentować, że takich poprawek w ogóle nie należy próbować. W większości organizacji niski koszt – a zwłaszcza w czasach głębokich zmian technologicznych – jest zwykle wystarczająco mocnym powodem, aby spróbować czegoś, nawet jeśli w danym momencie nie ma to strategicznego sensu. znalezienie szybkiego rozwiązania jest rzeczywiście nie do odparcia. Decydenci też nie są odporni na takie pokusy. Kiedy założenie serwisu społecznościowego dla aktywistów w jakimś autorytarnym kraju jest tak łatwe i tanie, typową reakcją jelita jest zazwyczaj „To powinno być zrobione”. To, że umieszczanie danych osobowych wszystkich dysydentów na jednej stronie internetowej i ujawnianie powiązań między nimi może przeważyć nad korzyściami płynącymi z zapewnienia aktywistom tańszego sposobu komunikacji, staje się problemem dopiero z mocą wsteczną. W większości przypadków, jeśli można to zrobić, zostanie to zrobione. Adresy URL zostaną kupione, strony zostaną utworzone, aktywiści zostaną uwięzieni, a potępiające komunikaty prasowe zostaną wydane. Podobnie, biorąc pod uwagę niezaprzeczalne mobilizacyjne zalety telefonu komórkowego, można zacząć go wychwalać, zanim zdamy sobie sprawę, że zapewnił on także tajnej policji unikalny sposób śledzenia, a nawet przewidywania, gdzie mogą wybuchnąć protesty. Problem z większością poprawek technologicznych polega na tym, że wiążą się one z kosztami nieznanymi nawet ich najbardziej zagorzałym zwolennikom. Historyk nauki Lisa Rosner twierdzi, że „rozwiązania technologiczne, ponieważ atakują objawy, ale nie eliminują przyczyn, mają nieprzewidziane i szkodliwe skutki uboczne, które mogą być gorsze niż problem społeczny, który mieli rozwiązać”. Trudno się z tym nie zgodzić, tym bardziej w przypadku internetu. Kiedy aktywizm cyfrowy jest przedstawiany jako nowa platforma kampanii i organizacji, zaczyna się zastanawiać, czy jego skutki uboczne – dalsze oderwanie się między tradycyjnymi siłami opozycyjnymi, które uprawiają prawdziwą politykę, bez względu na to, jak ryzykowne i nudne, a młodsze pokolenie, pasjonujące się kampanią na Facebook i Twitter – przeważyłyby nad korzyściami płynącymi z tańszej i sprawniejszej komunikacji. Jeśli ukryte koszty aktywizmu cyfrowego obejmują utratę spójności, moralności, a nawet trwałości ruchu opozycyjnego, może nie być rozwiązaniem wartym poszukiwania. Innym problemem związanym z poprawkami technologicznymi jest to, że zwykle opierają się one na niezwykle wyrafinowanych rozwiązaniach, które nie są łatwo zrozumiałe dla laików. Twierdzenia ich zwolenników są więc prawie nieprzeniknione dla zewnętrznej kontroli, a ich ambitna obietnica – usunięcie jakiegoś głęboko zakorzenionego społecznego zła – sprawia, że ​​taka kontrola, nawet jeśli jest możliwa, jest trudna do zrealizowania. Nic dziwnego, że niebezpieczna fascynacja rozwiązywaniem wcześniej trudnych do rozwiązania problemów społecznych za pomocą technologii pozwala partykularnym interesom na ukrycie tego, co w istocie sprowadza się do reklamy ich produktów handlowych w języku wolności i wyzwolenia. To nie przypadek, że ci, którzy najgłośniej głoszą, że najbardziej palące problemy wolności w Internecie można rozwiązać przez zerwanie szeregu zapór ogniowych, to ci sami ludzie, którzy opracowują i sprzedają technologie potrzebne do ich złamania. Oczywiście nie mają motywacji, aby wskazywać, że trzeba walczyć z innymi, nietechnologicznymi problemami lub ujawniać problemy za pomocą własnych technologii. Założyciele Haystack rzadko zadawali sobie trud, aby zwrócić uwagę na błędy we własnym oprogramowaniu – nie mówiąc już o ujawnieniu, że jest ono nadal na etapie testowania – a media nigdy nie zadały sobie trudu, aby o to zapytać. kwestie technologiczne wymagają  dobrego zrozumienia kontekstu społeczno-politycznego, w którym dana technologia ma być używana. Wskazuje to na inny często przeoczany problem: nasze rosnące zaangażowanie w narzędzia, których używamy do wdrażania „poprawek technologicznych” w przypadku ważnych problemów globalnych, znacznie ogranicza naszą zdolność do krytykowania tych, którzy posiadają prawa do tych poprawek. Każdy nowy artykuł lub książka o rewolucji na Twitterze nie jest triumfem ludzkości; to triumf działu marketingu Twittera. W rzeczywistości marketingowi geniusze z Doliny Krzemowej mogą być bardzo zainteresowani wprowadzeniem w błąd opinii publicznej co do podobieństwa między zimną wojną a dniem dzisiejszym: The Voice of America i Radio Free Europe nadal cieszą się dużą przychylnością dla decydentów, a Twitter i Facebook są widoczne ponieważ ich cyfrowe odpowiedniki nie szkodzą ich rozgłosowi.

Audyt Mózgu Hackera : Uprawniony odbiorca i Solar Sunrise

Mniej więcej w tym samym czasie, gdy Prezydencka Komisja ds. Ochrony Infrastruktury Krytycznej opracowywała swój raport w 1997 r., Departament Obrony Stanów Zjednoczonych (DoD) przeprowadził ściśle tajne ćwiczenie bez powiadomienia. Celem ćwiczenia było naśladowanie zagranicznego cyberataku na Departament Obrony i przetestowanie jego zdolności planowania i działań kryzysowych, o kryptonimie Kwalifikowalny odbiornik 97. W ciągu kilku tygodni czerwca tego roku zespół rządowych hakerów przedstawiający wrogie państwo z powodzeniem zaatakował wiele wojskowych komputerów i sieci. Łatwość, z jaką uzyskali dostęp, zaszokowała urzędników i ujawniła poważne luki w systemach informatycznych DoD. Ćwiczenie było realne – doszło do rzeczywistego ataku na kluczowe systemy informacyjne DoD, wykorzystującego znane luki w zabezpieczeniach i skutkującego prawdziwymi zakłóceniami zauważonymi przez niektórych administratorów systemu Ataki przeprowadzono z komercyjnych kont internetowych oraz wykorzystano narzędzia i techniki zaczerpnięte z badania open source. Podczas ćwiczenia członkowie zespołu atakującego uzyskali uprawnienia roota lub administratora do kilkudziesięciu systemów komputerowych; potrafili czytać i modyfikować e-maile, pliki i hasła; a nawet byli w stanie zakłócać niektóre usługi telefoniczne. Na zakończenie ćwiczenia poczyniono kilka kluczowych obserwacji:

* Informacyjne i operacyjne praktyki bezpieczeństwa były słabe i znacząco przyczyniły się do ogólnych luk w zabezpieczeniach DoD.

* Uzyskanie atrybutu ataków jest prawie niemożliwe i zazwyczaj jest niedokładne.

* Departament Obrony nie miał prawie żadnych środków, aby wykryć lub ocenić wpływ cyberataków.

* Nieliczne istniejące metody wykrywania, zgłaszania i reagowania były zbyt wolne w porównaniu z szybkością cyberataków.

* Żadne specjalne narzędzia ani techniki nie były potrzebne poza tymi dostępnymi za pośrednictwem kanałów open source, aby poważnie obniżyć lub zakłócić działanie komputerów i sieci DoD.

UWAGA: W czasie ćwiczenia istniała ogólna wiedza na temat narastających luk w zabezpieczeniach i wynikających z nich zagrożeń dla bezpieczeństwa sieci DoD, ale niewiele zrobiono, aby zmienić sposób prowadzenia działalności. Wielu starszych przywódców uważało, że odkrycia pochodzą z symulacji, więc nie odzwierciedlają prawdziwej natury zagrożenia. Konsensus był taki, że „prawdziwy” dostęp do systemów DoD był możliwy tylko poprzez specjalnie spreparowane ataki. Ten pogląd zmieni się około pół roku później.

Na początku lutego 1998 r. Stany Zjednoczone przygotowywały się do potencjalnej akcji wojskowej przeciwko Irakowi w odpowiedzi na spory ONZ dotyczące inspekcji uzbrojenia. W trakcie przygotowań rozpoczął się subtelny atak na sieci komputerowe DoD. Schemat ataku wyglądał jak przygotowania do większego ataku na wszystkie systemy informacyjne i komunikacyjne wydziału. Wygląda na to, że ataki pochodzą ze stron w Izraelu, Francji, Niemczech, Tajwanie i Zjednoczonych Emiratach Arabskich, a ataki wymierzone były w systemy komputerowe Sił Powietrznych, Marynarki Wojennej i Korpusu Piechoty Morskiej na całym świecie. ten sam profil ataku na każdy cel:

Skanowanie i badanie sieci w celu znalezienia wrażliwych systemów

* Wykorzystanie luki

* Ładowanie programu do wąchania w celu zebrania nazw użytkowników, haseł i innych danych

* Wracając później, aby zebrać wyszukane dane

Departament Obrony i inne agencje rządowe przeszły w 24-godzinny tryb reagowania kryzysowego, zainstalowały systemy wykrywania włamań w kluczowych sieciach i rozpoczęły intensywne prace śledcze w celu ustalenia źródła ataków. Śledczy zaczęli nazywać sprawę nowym kryptonimem – Solar Sunrise. Poszukiwano kilku śladów, ale nie było jasne, czy ataki pochodziły z Iraku, grupy terrorystycznej, zagranicznej agencji wywiadowczej, czy może niektórych hakerów zatrudnionych w celu uzyskania dostępu do systemów DoD. Dla Departamentu Obrony podobieństwa między atakiem z lutego 1998 r. A ćwiczeniami z czerwca 1997 r. Były niepokojące. W obu przypadkach departament nie dysponował skutecznymi wskazówkami ani systemem ostrzegania, co oznacza, że ​​nie był w stanie zobaczyć żadnego z nadchodzących ataków. Systemy wykrywania włamań były dostępne, ale nie były szeroko stosowane i niezbyt dobrze poznane. Nie było planu ani organizacji obejmującej cały dział ani organizacji obrony przed atakami z sieci komputerowej. Identyfikacja grup, profili i motywacji cyberzagrożeń prawie nie istniała. Po tygodniach śledztwa napastnikami okazała się para nastolatków z Kalifornii, a ich przewodnikiem był nastolatek z Izraela. Znany jako The Analyzer, przez kilka tygodni unikał schwytania, a nawet udzielał wywiadów reporterom podczas ucieczki. w Iraku. Ataki nie spowodowały żadnych poważnych szkód w systemach DoD, ale ze względu na współzależność cywilnych i wojskowych baz danych logistycznych oraz sieci z niesklasyfikowanymi sieciami komputerowymi departamentu, potencjalne oddziaływanie podczas wzmożonych napięć z Irakiem było bardzo duże.

Lean Customer Development : Ile wywiadów wystarczy?

Jak wspomniałem wcześniej, prawdziwa odpowiedź brzmi: „to zależy”. Zapamietaj to ,celem rozwoju klienta jest zmniejszenie ryzyka. W związku z tym liczba wywiadów, które musisz przeprowadzić, jest odwrotnie skorelowana z:

  • Doświadczenie w zakresie rozwoju klientów i domeny
  • Złożoność modelu biznesowego i liczba zależności
  • Inwestycja wymagana do stworzenia i zweryfikowania MVP

Doświadczenie z rozwojem klienta i branżą Im więcej doświadczenia i komfortu w rozwoju klienta, tym mniej rozmów kwalifikacyjnych potrzebujesz. (I to nie jest dlatego, że zastępujesz swój osąd za wyjście z budynku i rozmowę z ludźmi!) Twoja lepsza zdolność kierowania reklam do osób oznacza, że ​​na wczesnym etapie będziesz rozmawiać z większą liczbą właściwych osób. Zadawanie lepszych pytań zapewnia lepszy wgląd. Podobnie znajomość klientów lub branży skraca cykl, ponieważ wczesne hipotezy są oparte na bieżących zachowaniach, wzorcach podejmowania decyzji i wyrażonych potrzebach. Nadal jest mało prawdopodobne, aby miały całkowitą rację, ale będziesz mieć mniej czasu na próby i błędy. Kiedy byłem w Yodlee, przez kilka lat pracowałem z naszymi użytkownikami, zanim wprowadziłem wywiady dotyczące rozwoju klientów. Miałem już spory wgląd w to, jak użytkownicy zarządzają swoimi finansami w trybie online i offline, więc mogłem uciec z mniejszą liczbą wywiadów, zanim zacząłem tworzyć funkcje produktu.