Ile Google wie o Tobie : Jeśli coś jest wrażliwe, po prostu to zasłoń

Potęga Map Google w rękach mas nie pozostała niezauważona przez światowych przywódców. Przywódcy, w tym urzędnicy z Tajlandii, Korei Południowej i Indii, wyrazili obawy co do mocy systemu w zakresie pokazywania wrażliwych obiektów.  W rezultacie firma Google otrzymała szereg żądań (czasami żądań) ograniczenia dostępu. Popularną techniką zaspokajania takich żądań jest zasłanianie „wrażliwej” lokalizacji. Ukrywanie wrażliwych lokalizacji działa dość dobrze, gdy założysz samotnego analityka, ale jest znacznie mniej skuteczne w konfrontacji z dużą grupą podobnie myślących widzów, którzy chcą zidentyfikować ocenzurowane lokalizacje. Podejście to jest jeszcze mniej bezpieczne, gdy założymy, że Google prawdopodobnie otrzymał oryginalne niezmienione obrazy i ocenzurowało same obrazy. Mieliby nie tylko oryginalny niezmieniony obraz, być może w nawet wyższej rozdzielczości niż ten, który jest dostępny w Internecie, ale najprawdopodobniej także główną listę wszystkich wrażliwych witryn. Chciałbym mieć tę listę. Podczas korzystania z usług takich jak Google Maps pojawia się pytanie o dokładność wyników. Zapytaj taksówkarza, co sądzi o Mapach Google lub wskazówkach MapQuest. Wyniki mogą oczywiście być przypadkowo błędne lub nieaktualne. Rozsądnie jest jednak wziąć pod uwagę, że wyniki mogą celowo wprowadzać w błąd. Ponadto, jeśli założymy, że może istnieć złośliwy ISP lub dostawca sieci szkieletowej, otrzymane obrazy mogą nie być zgodne z prawdą, nawet jeśli źródło dostarcza dokładnych obrazów, ponieważ można je zamienić po drodze.

Zaufanie w Cyberspace : Schemat generowania kluczy oparty na Diffie-Hellmanie

Praca ta przedstawia alternatywny schemat zarządzania kluczami oparty na hierarchii kierowanej konfiguracją częściowego porządku dostępu . Poziomy takiej struktury to AC dla pojedynczych użytkowników, a krawędzie są zbudowane od dołu do góry, tak że każdy pośredni wierzchołek jest wskazywany przez dokładnie dwie krawędzie, a jego AC jest sumą pasowań dwojga dzieci. Wynikowa hierarchia jest następnie uruchamiana przez algorytm generowania kluczy Diffiego – Hellmana (DH), który przypisuje tajne klucze do wierzchołków w sposób oddolny, tak że użytkownik z jednym kluczem może uzyskać wszystkie tajne klucze przypisane do jego zestawów danych. Autorzy dochodzą do rozwiązania do zarządzania kluczami w następujący sposób ,dwa kroki: (1) tworzenie V-grafu, którego elementami są AC i (2) generowanie kluczy przy użyciu schematu generowania klucza DH dla V-grafu. Te kroki wyjaśniono w następnym wpisie.

Ciemna Strona Neta : Czy po Twitterze jest historia?

Kuszące jest postrzeganie technologii jako pewnego rodzaju brakującego ogniwa, które może pomóc nam zrozumieć niepowiązane wydarzenia znane jako historia ludzkości. Po co szukać bardziej złożonych powodów, skoro ustanowienie demokratycznych form rządów w Europie można wytłumaczyć wynalezieniem prasy drukarskiej? Jak zauważył historyk ekonomii Robert Heilbroner w 1994 roku, „historia jako przypadek jest perspektywą, która jest czymś więcej niż może znieść ludzki duch”. Determinizm technologiczny – czyli przekonanie, że pewne technologie są zobowiązane do wywoływania pewnych skutków społecznych, kulturowych i politycznych – jest atrakcyjne właśnie dlatego, że „tworzy potężne scenariusze, jasne historie i jest zgodne z dominującym doświadczeniem na Zachodzie” – pisze Steve Graham i Simon Marvin, dwóch badaczy geografii miejskiej. Wymuszenie powiązania między rolą, jaką kserokopie i faksy odegrały w Europie Wschodniej w 1989 r., A rolą, jaką Twitter odegrał w Iranie w 2009 r., Tworzy rozdzierającą serce, ale także niezwykle spójną narrację, która opiera się na powszechnym przekonaniu, zakorzenionym w ideałach oświecenia, w emancypacyjna siła informacji, wiedzy, a przede wszystkim idei. O wiele łatwiej jest wyjaśnić najnowszą historię, zakładając, że komunizm upadł w chwili, gdy obywatele radzieccy zrozumieli, że w zachodnich supermarketach nie ma kolejek, niż szukać prawdy w jakichś długich i niejasnych raportach na temat bilansu handlowego ZSRR. Z tego powodu determinizm – czy to zróżnicowania społecznego, zakładającego koniec historii, czy też różnorodności politycznej, zakładającej koniec autorytaryzmu – jest zubożałym intelektualnie, leniwym sposobem badania przeszłości, rozumienia teraźniejszości i przewidywania przyszłość. Bryan Pfaffenberger, antropolog z University of Virginia, uważa, że ​​powodem, dla którego tak wielu z nas wpada w deterministyczne scenariusze, jest to, że przedstawia najłatwiejsze wyjście. „Zakładanie determinizmu technologicznego”, pisze Pfaffenberger, „jest znacznie łatwiejsze niż prowadzenie w pełni kontekstowego badania, w którym ludzie okazują się być czynnymi właścicielami transferowanej technologii, a nie biernymi ofiarami”. Ale nie tylko historia cierpi z powodu determinizmu; etyka nie wypada dużo lepiej. Jeśli marsz technologii jest niepowstrzymany i jednokierunkowy, podczas gdy horda guru technologii wciąż przekonywa opinię publiczną ze stron magazynów technologicznych, stanie na jej drodze wydaje się bezcelowe. Jeśli radio, telewizja lub Internet są gotowe do zapoczątkowania nowej ery demokracji i powszechnych praw człowieka, my, ludzie, niewiele mamy do odegrania. Jednak argumentowanie, że kiedyś szeroko rozpowszechniona praktyka, taka jak lobotomia, była po prostu wynikiem nieuniknionych sił technologicznych, jest zwolnieniem jej zwolenników. W ten sposób determinizm technologiczny przesłania role i obowiązki ludzkich decydentów, albo zwalniając ich z zasłużonej winy lub minimalizując rolę ich znaczących interwencji. Jak zauważa Arthur Welzer, politolog z Michigan State University, „w zakresie, w jakim postrzegamy siebie jako bezradne pionki nadrzędnej i niewzruszonej siły, możemy wyrzec się moralnej i politycznej odpowiedzialności, która w rzeczywistości jest kluczowa dla dobre wykorzystanie naszej władzy nad technologią ”. Przyjmując postawę deterministyczną, rzadziej będziemy poddawać technologię – i tym, którzy z niej zarabiają na życie – pełnemu bukietowi zagadnień etycznych normalnych dla demokracji. Czy Google powinno być zobowiązane do szyfrowania wszystkich dokumentów przesyłanych do usługi Dokumenty Google? Czy należy zezwolić Facebookowi na dalsze upublicznianie większej ilości danych swoich użytkowników? Czy należy zapraszać Twittera na głośne zebrania rządu USA bez uprzedniej rejestracji w Global Network Initiative?

Chociaż wiele takich pytań jest już podnoszonych, nietrudno wyobrazić sobie przyszłość, w której byłyby poruszane rzadziej, szczególnie w biurach, które muszą ich najczęściej zadawać.

W całej historii nowe technologie prawie zawsze dawały siłę i pozbawił mocy określone grupy polityczne i społeczne, czasami jednocześnie – fakt, o którym zbyt łatwo jest zapomnieć pod wpływem determinizmu technologicznego. Nie trzeba dodawać, że taka amnezja etyczna rzadko leży w interesie osób pozbawionych władzy. Robert Pippin, filozof z University of Chicago, twierdzi, że fascynacja społeczeństwa technologią kosztem moralności osiąga punkt, w którym „to, co należy rozumieć jako przypadkowe, jedną z wielu opcji, która jest otwarta na polityczną dyskusję, jest zamiast tego fałszywie rozumiana jako niezbędne; to, co służy szczególnemu interesowi, jest postrzegane bez refleksji, jako interes powszechny; to, co powinno być częścią, jest doświadczane jako całość ”. Dyrektorzy Facebooka usprawiedliwiają swój atak na prywatność, twierdząc, że i tak właśnie tam zmierza społeczeństwo jest dokładnie tym rodzajem roszczenia, które powinno podlegać kontroli moralnej i politycznej, a nie tylko technologicznej. To właśnie poprzez odwołanie się do takich deterministycznych narracji Facebookowi udaje się zaciemnić swoją rolę w tym procesie. Abbe Mowshowitz, profesor informatyki w City College w Nowym Jorku, porównuje komputer z ziarnem, a konkretne okoliczności historyczne z glebą, na której ziarno ma być zasiane: „Właściwe połączenie nasion, ziemi i uprawy jest niezbędne, aby sprzyjają wzrostowi pożądanych roślin i eliminują chwasty. Niestety, nasiona aplikacji komputerowych są skażone chwastami; grunt jest często źle przygotowany; a nasze metody uprawy są wysoce niedoskonałe ”. Nie można winić Mowshowitza za błędne odczytanie historii technologii, ale istnieje bardziej optymistyczny sposób zrozumienia tego, co powiedział: my, kultywujący, możemy faktycznie interweniować na wszystkich trzech etapach i to od nas zależy określenie warunków, na których zdecydowaliśmy się to zrobić. Cena za brak interwencji może być dość wysoka. Już w 1974 roku Raymond Williams, brytyjski krytyk kultury, ostrzegał nas, że determinizm technologiczny nieuchronnie wytwarza pewien determinizm społeczny i kulturowy, który „ratyfikuje społeczeństwo i kulturę, którą mamy teraz, a zwłaszcza jej najpotężniejsze wewnętrzne kierunki”. Williams martwił się, że umieszczenie technologii w centrum naszej intelektualnej analizy z pewnością sprawi, że będziemy postrzegać to, co tradycyjnie rozumieliśmy, jako problem polityki, z jej złożonymi i trudnymi kwestiami etyki i moralności, jako problem technologii, eliminującej lub zaciemniając wszystkie nierozwiązane dylematy filozoficzne. „Jeśli przyczyną jest medium – czy to druk, czy telewizja -”, napisał Williams w swojej bestsellerowej „Telewizja: technologia i forma kulturowa”, „wszystkie inne przyczyny, wszystko, co ludzie zwykle postrzegają jako historię, są natychmiast sprowadzane do skutków”. Dla Williamsa nie był to koniec historii, którą zapoczątkowała technologia; był to koniec myślenia historycznego, a wraz z końcem myślenia historycznego kwestie sprawiedliwości również tracą na znaczeniu. Williams poszedł dalej w swojej krytyce, argumentując, że determinizm technologiczny uniemożliwia nam również uznanie tego, co jest polityczne w samej technologii (rodzaj praktyk i wyników, które zwykle faworyzuje), ponieważ jej łatwiejsze do zaobserwowania cechy zwykle zajmują lwią część uwagi opinii publicznej , co utrudnia ocenę innych, bardziej zgubnych cech. „To, co gdzie indziej postrzegane jest jako skutki i jako takie podlega kwestionowaniu społecznemu, kulturowemu, psychologicznemu i moralnemu”, napisał Williams, „jest wykluczone jako nieistotne w porównaniu z bezpośrednimi fizjologicznymi, a zatem psychicznymi skutkami mediów jako takich”. Innymi słowy, o wiele łatwiej jest krytykować Internet za to, że nas głupi, niż zapewniać spójną moralną krytykę jego wpływu na demokratyczne obywatelstwo. A pod naporem ahistorycznych notatek o wyzwalającym potencjale Internetu, nawet stawianie takich moralnych pytań może wydawać się zbyt sprzeczne. Biorąc pod uwagę reakcję świata na rewolucję Iranu na Twitterze, trudno nie docenić przewidywania słów Williamsa. Zamiast mówić o siłach religijnych, demograficznych i kulturowych, które wywoływały nastroje protestacyjne w tym kraju, zależało nam tylko na czołowej roli Twittera w organizowaniu protestów i jego odporności w obliczu cenzury. Podobnie, gdy wielu zachodnich obserwatorów dało się ponieść dyskusji o konsekwencjach rewolucji na Facebooku w Egipcie w kwietniu 2008 r. – kiedy tysiące młodych Egipcjan zostało zmobilizowanych przez Internet, aby wyrazić swoją solidarność z robotnikami tekstylnymi, którzy strajkowali w biednym przemysłowym mieście Mahala. zadał sobie trud spytania, czego tak naprawdę chcą pracownicy. Jak się okazuje, protestowali przeciwko skrajnie niskim płacom w swojej fabryce. Był to przede wszystkim protest dotyczący kwestii pracowniczych, który został skutecznie powiązany z szerszą kampanią reform konstytucyjnych przeciwko Mubarakowi. Kiedyś, z różnych powodów, element protestów robotniczy wygasł, inne próby rewolucji na Facebooku – tej mającej konsekwencje w świecie fizycznym – nie odniosły skutku, mimo że przyciągnęły w sieci setki tysięcy zwolenników. Jak można było się spodziewać, większość doniesień w zachodnich mediach koncentrowała się na Facebooku, a nie na problemach pracowniczych lub żądaniach pod adresem Mubaraka, by zakończył nadzwyczajną regułę narzuconą Egiptowi od 1981 roku. Jest to kolejne mocne przypomnienie, że skupianie się na technologiach, a nie siły społeczne i polityczne, które ich otaczają, można wyciągnąć błędne wnioski. Dopóki takie protesty będą nadal postrzegane głównie przez pryzmat technologii, za pomocą której zostały zorganizowane – a nie, powiedzmy, przez żądania i motywację protestujących – polityka Zachodu przyniesie niewiele dobrego, bez względu na dobre intencje. . Dlatego najbardziej niebezpieczne w uleganiu determinizmowi technologicznemu jest to, że utrudnia to naszą świadomość tego, co społeczne i polityczne, przedstawiając je zamiast tego jako technologiczne. Technologia jako Kantowska kategoria rozumienia świata może po prostu być zbyt ekspansjonistyczna i monopolistyczna, obejmując wszystko, co nie zostało jeszcze właściwie zrozumiane i skategoryzowane, niezależnie od tego, czy jego korzenie i natura są technologiczne. (To właśnie miał na myśli niemiecki filozof Martin Heidegger, mówiąc, że „istota technologii w żadnym wypadku nie jest technologiczna”). Ponieważ technologia taka jak gaz wypełni każdą przewidzianą przestrzeń koncepcyjną, Leo Marx, emerytowany profesor z Massachusetts Institute of Technology opisuje ją jako „niebezpieczną koncepcję”, która może „dławić i zaciemniać analityczne myślenie”. Jak zauważa: „Ze względu na swoją szczególną podatność na urzeczowienie, na posiadanie magicznej mocy autonomicznej istoty, technologia jest głównym czynnikiem przyczyniającym się do tego gromadzącego się poczucia… politycznej niemocy. Popularność przekonania, że ​​technologia jest podstawową siłą kształtującą ponowoczesny świat, jest miarą naszego. .. lekceważenie norm moralnych i politycznych, przy dokonywaniu decydujących wyborów dotyczących kierunku społeczeństwa ”. Lekceważenie standardów moralnych i politycznych, przed którymi ostrzega Leo Marxis, jest w pełni widoczne w nagłej potrzebie promowania wolności w Internecie bez wyrażania, jak dokładnie pasuje ona do reszty programu promocji demokracji. Nadzieja, że ​​Internet może uwolnić Egipcjan lub Azerów od autorytarnego ucisku, nie jest dobrym pretekstem, aby kontynuować potajemnie popierając same źródła tego ucisku. Trzeba przyznać, że Hillary Clinton nie popadła w determinizm technologiczny w swoim przemówieniu o wolności w Internecie, mówiąc, że „chociaż jest jasne, że rozprzestrzenianie się tych technologii [informacyjnych] zmienia nasz świat, nadal nie jest jasne, jak ta transformacja wpłynie na prawa człowieka i dobrobyt większości światowej populacji ”. Jednak przy drugim czytaniu wydaje się to bardzo dziwnym stwierdzeniem. Jeśli nie jest jasne, jak te technologie wpłyną na prawa człowieka, jaki jest sens ich promowania? Czy to tylko dlatego, że brak jest jasności co do tego, co oznacza i czym jest wolność w Internecie? Takie zamieszanie w szeregach decydentów może tylko wzrosnąć, ponieważ formułują oni politykę wokół wysoce niejednoznacznej koncepcji. Leo Marx sugeruje, że sposobem rozwiązania zagrożeń związanych z koncepcją technologii jest ponowne przemyślenie, czy nadal warto stawiać ją w centrum wszelkich badań intelektualnych, nie mówiąc już o teorii działania. Im więcej dowiadujemy się o technologii, tym mniej ma sens skupianie się wyłącznie na niej, w oderwaniu od innych czynników. Albo, jak sam Marks to ujął, „paradoksalnym rezultatem coraz większej wiedzy i zrozumienia technologii jest poddanie w wątpliwość uzasadnienia tworzenia„ technologii / z jej niezwykle niejasnymi granicami; koncentruje się na oddzielnej dziedzinie specjalistycznej nauki historycznej (lub innej dyscyplinarnej) ”. Innymi słowy; nie jest jasne, co zyskujemy, traktując technologię jako samodzielnego aktora historycznego, ponieważ zazwyczaj ukrywa ona więcej na temat polityki społecznej; i moc, niż objawia. Jeśli chodzi o Internet; stypendium dotychczas szło w przeciwnym kierunku. Centra akademickie zajmujące się badaniem Internetu – intelektualnych bastionów centryzmu Internetu – mnożą się na kampusach uniwersyteckich, a tym samym przyczyniają się do jego dalszej reifikacji i dekontekstualizacji. To, że praktycznie każda dzisiejsza gazeta lub magazyn chwali się wywiadami z „guru Internetu”, jest raczej niepokojącym znakiem, ponieważ jakkolwiek głęboka znajomość architektury Internetu oraz jego różnorodnej i zabawnej kultury nie rekompensuje ich niedostatecznego zrozumienia jak funkcjonują społeczeństwa, nie mówiąc już o społeczeństwach niezachodnich. To oznaka tego, jak głęboki jest Internetocentryzm zepsuło publiczny dyskurs, że ludzie, którzy mają raczej pobieżną wiedzę na temat współczesnego Iranu, stali się źródłami informacji o irańskiej rewolucji na Twitterze, tak jakby dokładne spojrzenie na wszystkie tweety związane z Iranem mogło w jakiś sposób otworzyć szersze okno na politykę tego krajem niezwykle skomplikowanym niż dokładne studium naukowe jego historii.

Audyt Mózgu Hackera : Rosnące zagrożenia i luki w zabezpieczeniach

Chociaż wirusy sieciowe, robaki, ataki typu „odmowa usługi” (DoS) i nieautoryzowany dostęp zdalny wzrosły w latach 90. XX wieku, nie nastąpiła odpowiednia zmiana w obronie lub bezpieczeństwie w kulturze użytkowników Internetu. Oprogramowanie antywirusowe zostało wprowadzone w 1988 r. W celu rozwiązania narastającego problemu wirusów przenoszonych z dyskietek. Do połowy lat 90. główny wektor zagrożeń ze strony złośliwego oprogramowania pozostawał za pośrednictwem zainfekowanych dyskietek, ale większość użytkowników komputerów nie korzystała z oprogramowania antywirusowego. z powodu braku świadomości i spadku wydajności, którego doświadczyła większość użytkowników podczas korzystania z ochrony antywirusowej. Podobnie, stosowanie zapór ogniowych przed końcem lat 90. nie było tak powszechne jak to jest dziś. Większość użytkowników domowych oraz małych i średnich firm nie ma zapory ogniowej ani nawet nie wie, co to jest. Niestety, obecnie znaczny procent użytkowników domowych nadal łączy się z Internetem bez włączania pewnego rodzaju ochrony firewall. Wreszcie koncepcja aktualizacji i łatania oprogramowania w celu zapobiegania naruszeniom bezpieczeństwa potrzebowała wielu lat, zanim opinia publiczna zrozumie. Nawet dzisiaj duża liczba użytkowników Internetu nie aktualizuje ani nie łata swojego oprogramowania systemowego. Wielu uważa, że ​​nie jest to konieczne lub że nie ma zagrożenia. Inni nie rozumieją, co oznacza migająca ikona „Aktualizuj” na pasku zadań. Niestety jest to równie niebezpieczne, jak ignorowanie kontrolki „Sprawdź olej” na desce rozdzielczej samochodu. Te trzy obszary – ochrona antywirusowa, zapory ogniowe i łatanie oprogramowania – są niezbędne do zapewnienia podstawowego poziomu bezpieczeństwa użytkownikom Internetu. Obecnie duża liczba użytkowników nie rozumie, jak korzystać z tych technik, co sprawia, że ​​rozprzestrzenianie się złośliwego oprogramowania i innych metod ataku jest banalnie łatwe. Wykładniczy roczny wzrost łączy szerokopasmowych lub szybkich łączy domowych pogarsza sytuację. infrastruktura, która jest od niego zależna, jest narażona na katastrofalną awarię, która nastąpi w najbliższej przyszłości.

Lean Customer Development : W ciągu pięciu wywiadów: pierwsza naprawdę podekscytowana osoba

W ciągu pierwszych pięciu wywiadów spotkasz co najmniej jedną osobę, która jest naprawdę podekscytowana Twoim pomysłem. Jako minimum, jeśli zidentyfikujesz dobry problem do rozwiązania, ktoś przekaże Ci bezpośrednie skierowanie („To mnie nie dotyczy, ale wiem dokładnie, z kim powinieneś porozmawiać”). Jeśli słyszałeś coś takiego, świetnie! Tak trzymaj. Jeśli tak nie jest, prawdopodobnie jest prawdą:

  • Rozmawiasz z niewłaściwymi ludźmi
  • Twój problem tak naprawdę nie jest problemem

Tak czy inaczej, unieważnia to twoją hipotezę (pamiętaj, że hipoteza składa się z dwóch części: że ten typ osoby ma tego typu problem). Można mówić do jednego odstającego. Można mówić o dwóch wartościach odstających. Rozmowa z pięcioma z rzędu jest mało prawdopodobna. Jeśli pięć osób nie jest zainteresowanych, to prawdopodobnie dlatego, że unieważniłeś swoją hipotezę. “Ale poczekaj!” mógłbyś powiedzieć. „Może nie zadawałem właściwych pytań”. To mało prawdopodobne. Kiedy rozmawiasz z osobą, której naprawdę zależy na rozwiązaniu swojego problemu, jej pasja przejdzie przez nią i odpowie na pytanie, które powinieneś był zadać. Kiedy już usłyszysz swoją pierwszą naprawdę podekscytowaną osobę, możesz pomyśleć o tym, jak szybko możesz zebrać MVP. Generalnie zalecam rozpoczęcie od 10 wywiadów, ale jeśli możesz zebrać MVP w czasie krótszym niż zrobienie kolejnych 5 wywiadów, po co czekać? Bez względu na to, jak bardzo ktoś jest podekscytowany twoim produktem, prawdziwym testem jest to, czy jest skłonny wyrzucić pieniądze (lub inną osobistą walutą, na przykład jego czas, zamówienie w przedsprzedaży lub adres e-mail). Jeśli możesz znaleźć sposób na odebranie waluty od użytkownika w ciągu kilku godzin, zrób to!

Ile Google wie o Tobie : Podstawowa analiza obrazów

Analiza obrazów to sztuka analizowania obrazów w celu wydobycia użytecznych informacji. Analiza zdjęć z góry jest praktykowana od 1858 r., Kiedy to Gaspar Felix Tournachon wykonał pierwsze zdjęcie lotnicze (Paryża) z balonu. Obrazy zostały później przechwycone z kamer noszonych przez gołębie (1903), latawce (1906) i rakiety na sprężone powietrze (1906). Wilbur Wright wykonał pierwsze zdjęcie z samolotu w 1909 roku w Centrocelli we Włoszech. Wartość wywiadowcza obrazów napowietrznych nie pozostała niezauważona przez wojsko. Zdjęcia z góry zostały zebrane podczas wojny domowej w USA, I i II wojny światowej, ale ich znaczenie wzrosło wraz z pojawieniem się zdjęć satelitarnych. Corona była pierwszym systemem rozpoznania fotograficznego w Stanach Zjednoczonych. Działał od sierpnia 1960 do maja 1972 i został odtajniony w lutym 1995. Podczas 12-letniego programu wykonał ponad 100 misji i wykonał ponad 800 000 zdjęć. [25] Satelity w programie Corona otrzymały oznacznik KH (KeyHole) od KH-1 do KH-6, z maksymalną rozdzielczością naziemną (to znaczy dla najmniejszego dostrzegalnego obiektu) 6 stóp. Obecnie użytkownicy Google Earth i Google Maps cieszą się znacznie większą rozdzielczością dzięki zdjęciom zebranym za pomocą satelitów i samolotów, otwierając sztukę analizy obrazów dla każdego, kto ma dostęp do Internetu. Te obrazy, wraz z innymi informacjami swobodnie dostępnymi w sieci WWW, zwiększyły wrażliwość treści tych usług online. W przeszłości narody ryzykowały życie szpiegów i członków usług, aby zdobyć to, co teraz można po prostu pobrać ze swojego salonu lub biura. Pełne omówienie ryzyka związanego ze zdjęciami z góry wykracza poza zakres tej książki; Jednak ważne jest, aby zdać sobie sprawę, że chociaż niewprawne oko może wykryć wrażliwe informacje, doświadczony analityk obrazowania może wydobyć znacznie więcej wglądu. Rozważmy kilka prostych przykładów. Pierwszy przykład to skromny parking. Mapy Google zawierają wiele zdjęć wielu miast z rozdzielczością umożliwiającą wykrycie stosunkowo małych obiektów, takich jak samochody. Zwróć uwagę, że coś tak nieszkodliwego, jak parking, może ujawnić wiele informacji, takich jak liczba pracowników, których może zatrudniać firma lub czy zdjęcie zostało zrobione w weekend czy w dzień powszedni. Jeśli kiedykolwiek grałeś w grę polegającą na budowaniu miasta, taką jak SimCity, starannie zbudowałeś miasto, dodając strefy handlowe, przemysłowe i mieszkalne, a także transport i obiekty użyteczności publicznej. Podobnie możesz analizować miasto, dekonstruując je warstwa po warstwie. Bardziej szczegółowe przykłady znajdują się w Tabeli 6-1, którą oparłem na menu SimCity i innych źródłach [27]. Wykwalifikowana analiza wiąże się z poważnym zagrożeniem bezpieczeństwa i niewiele możemy zrobić, aby się przed nim chronić, chyba że chcemy zainstalować siatkę maskującą na naszych domach i firmach.

Zaufanie w Zaufanie w Cyberspace : Rozwiązanie oparte na TUH (drzewo oparte na hierarchii użytkowników)

Ta metoda wykorzystuje zachłanny algorytm, który próbuje rozwiązać niedeterministyczny problem wielomianu czasu wielomianowego (NP) – trudny problem minimalizacji liczby kluczy bezpośrednio przekazywanych użytkownikom. Autorzy rozważają macierzową reprezentację praw użytkownika w zestawach danych, przedstawiając użytkowników jako wiersze, a konfigurację dostępu (AC) związaną z krotkami danych jako kolumny .Przykładową macierz dostępu przedstawia rysunek.

Drzewo derywacji kluczy (TUH), jak pokazano na rysunku poniżej , jest zbudowane z macierzy dostępu A wymuszającej politykę kontroli dostępu.

Mając pusty wierzchołek jako pierwiastek, proponowany algorytm zaczyna włączać do TUH wszystkie wierzchołki reprezentujące AC poprzez skanowanie macierzy A. Ponownie, wierzchołki powinny spełniać częściową kolejność, w której każdy wierzchołek jest wskazywany przez krawędź z wierzchołka macierzystego p, do którego dostęp konfiguracja ACp jest zawarta w ACv. Dlatego każdy wierzchołek będzie powiązany z tajnym kluczem k tak, że klucz dla wierzchołka v zostanie przekazany użytkownikowi u wtedy i tylko wtedy, gdy u należy do vs AC, a u nie należy do rodzica (v) AC. Wszystkie inne klucze, do których użytkownik u ma uprawnienia, uzyskuje się za pomocą mechanizmu wyprowadzania, wykorzystującego jednokierunkowe funkcje skrótu z przypisanych kluczy. Budowanie drzewa wyprowadzania kluczy odbywa się za pomocą transformacji algorytmu obejmującego kroki takie jak (1) zaznaczanie wierzchołków, (2) konstrukcja TUH, (3) drzewo śliwek i (4) przypisanie klawiszy.

Zalety. Zaletą rozwiązania jest outsourcing egzekwowania kontroli dostępu i nie wymaga stałej obecności właściciela danych w trybie online w celu szyfrowania zapytań i odszyfrowywania wyników. Oprócz tego mechanizm ten ogranicza liczbę kluczy prywatnych, które każdy klient musi mieć przy sobie.

Ograniczenia. Elastyczność struktury w celu dostosowania się do częstych modyfikacji zasad kontroli dostępu, szczególnie w przypadku wstawiania i usuwania użytkowników, jest bardzo ograniczona. Po kilku aktualizacjach krawędzie między wierzchołkami są modyfikowane w taki sposób, że TUH nie jest w stanie utrzymać wydajności wyprowadzania klucza.

W związku z tym TUH musi zostać całkowicie przebudowany, ponownie klucz AC, a dane odszyfrowane i zaszyfrowane.

Ciemna Strona Neta : Brak logiki dla starych ludzi

Inną powracającą cechą nowoczesnej technologii, która została przeoczona przez wiele jej wzmacniaczy, jest to, że pojawienie się nowych technologii, bez względu na to, jak rewolucyjne mogą być ich obwody, nie powoduje automatycznego zniesienia starych praktyk i tradycji. Jeszcze w latach pięćdziesiątych każdy, kto twierdził, że telewizja wzmocni istniejące instytucje religijne, zachęcał do wyśmiewania. A jednak kilkadziesiąt lat później to telewizja Pat Robertson i horda innych teleewangelistów musiała podziękować za ich potężną platformę społecznościową. Kto dziś mógłby się założyć, że Internet podkopie zorganizowaną religię? W rzeczywistości, jak można obecnie zaobserwować wraz z odrodzeniem się nacjonalizmu i religii w sieci, nowe technologie często utrwalają stare praktyki i sprawiają, że stają się one bardziej rozpowszechnione. Claude Fischer, który w swojej książce America Calling badał sposób, w jaki Amerykanie przyjęli telefon w XIX wieku, zauważa, że ​​był on używany przede wszystkim do „poszerzania i pogłębiania”. .. istniejące wzorce społeczne zamiast je zmieniać. ” Zamiast wyobrażać sobie telefon jako narzędzie, które pobudza ludzi do przyjęcia nowoczesności, Fischer zaproponował, abyśmy myśleli o nim jako o „narzędziu, którego współcześni ludzie używali do różnych celów, w tym być może do utrzymania, a nawet ulepszenia dawnych praktyk”. Aby Internet mógł odegrać konstruktywną rolę w uwolnieniu świata od uprzedzeń i nienawiści, musi mu towarzyszyć niezwykle ambitny zestaw reform społecznych i politycznych; w przypadku ich braku choroby społeczne mogą się tylko pogorszyć. Innymi słowy, bez względu na wewnętrzną logikę danej technologii, jest ona zwykle podatna na kształtowanie przez logikę całego społeczeństwa. „Chociaż każda technologia komunikacyjna ma swoje indywidualne właściwości, zwłaszcza jeśli chodzi o to, który z ludzkich zmysłów faworyzuje, a które ignoruje” – pisze Susan Douglas, badaczka komunikacji na Uniwersytecie Michigan, „system ekonomiczny i polityczny, w którym urządzenie jest wbudowane prawie zawsze przewyższa możliwości technologiczne i imperatywy ”. A jednak rzadko uniemożliwia to armii ekspertów technologicznych twierdzenie, że złamali tę logikę i zrozumieli, o co chodzi w radiu, telewizji czy internecie; otaczające go siły społeczne są zatem uważane za przeważnie nieistotne i można je łatwo zignorować. Marshall McLuhan, pierwszy filozof muzyki pop, uważał, że telewizja ma logikę: w przeciwieństwie do druku, zachęca widzów do wypełnienia luk w tym, co widzą, pobudza więcej zmysłów i ogólnie zbliża nas do oryginalnego plemiennego warunek (nowa równowaga, którą McLuhan wyraźnie faworyzował). Problem polega na tym, że podczas gdy McLuhan gonił za wewnętrzną logiką telewizji, mógł przegapić sposób, w jaki można ją zawłaszczyć przez korporacyjną Amerykę i wywołać skutki społeczne o wiele bardziej oczywiste (i brzydsze) niż zmiany w niektórych niejasnych wskaźnikach zmysłowych, które McLuhan tak skrupulatnie obliczył. dla każdego medium. Sytuacja pogarsza się w kontekście międzynarodowym. „Logika”, do której przypuszczalnie mają dostęp uczeni i decydenci, jest po prostu interpretacją tego, do czego dana technologia jest zdolna w określonych okolicznościach. Hermann Góring, który po mistrzowsku wykorzystał radio w hitlerowskich Niemczech, widział jego logikę w zupełnie innych kategoriach niż, powiedzmy, Marconi. Tak więc wiedza o danej technologii wciąż niewiele mówi nam o tym, jak dokładnie ukształtuje ona złożone, nowoczesne społeczeństwo. Ekonomista William Schaniel podziela ten pogląd, ostrzegając nas, że „analityczny punkt ciężkości transferu technologii powinien być skupiony na przyjmowaniu kultury, a nie na przenoszonych materiałach”, po prostu dlatego, że chociaż „nowa technologia tworzy zmianę”, ta zmiana nie jest „ ustalone z góry przez przyjętą technologię. ” Zamiast tego, pisze Schaniel, „przyjęta technologia jest dostosowywana przez społeczeństwo adopcyjne do ich procesów społecznych”. Kiedy do Europy sprowadzono proch strzelniczy z Azji, Europejczycy nie przyjęli jednocześnie azjatyckich zasad i wierzeń na jego temat. Przyjęty proch został dostosowany przez cywilizacje europejskie zgodnie z ich własnymi wartościami i tradycjami. Internet to nie proch strzelniczy; jest znacznie bardziej złożony i wielowymiarowy. Ale to tylko dodaje pilności naszym dążeniom do zrozumienia społeczeństw, które mają „przekształcić” lub „zdemokratyzować”. Może je przekształcić, ale decydenci szczególnie interesują się kierunkiem, w którym to przekształcenie będzie postępować. Jedynym sposobem, aby to zrozumieli, jest oparcie się determinizmowi technologicznemu i podjęcie dokładnej analizy nietechnologicznych sił, które tworzą środowiska, które chcą zrozumieć lub przekształcić. Może mieć sens myślenie o technologiach jako ucieleśniających pewną logikę na wczesnym etapie ich wdrażania, ale gdy dojrzewają, ich logika zwykle ustępuje miejsca silniejszym siłom społecznym. Niezdolność do dostrzeżenia, że ​​logika technologii, o ile można powiedzieć, że istnieje, różni się w zależności od kontekstu, po części wyjaśnia brak zrozumienia przez Zachód, jak ważny jest Internet dla autorytarnych reżimów. Nie mając dobrej teorii na temat wewnętrznej logiki politycznej i społecznej tych reżimów, zachodni obserwatorzy zakładają, że dyktatorzy i ich kumple nie mogą znaleźć sposobu na wzmocnienie reżimu w Internecie, ponieważ w warunkach zachodnich liberalnych demokracji – i takie są tylko warunki, które ci obserwatorzy rozumieją – Internet osłabia państwo i decentralizuje władzę. Zamiast zagłębiać się w domniemaną logikę Internetu, zachodni dobroczyńcy powinni uzyskać bardziej wyrafinowany obraz politycznej i społecznej logiki autorytaryzmu w warunkach globalizacji. Jeśli decydentom brakuje dobrego teoretycznego wyjaśnienia tego, co napędza te społeczeństwa, żadna ilość teorii Internetu nie pozwoli im na sformułowanie skutecznej polityki wykorzystania Internetu do promowania demokracji.

Audyt Mózgu Hackera : Społeczeństwo i Internet

Twórcy Internetu we wczesnych latach siedemdziesiątych nie przewidzieli dzisiejszego prawie wyłącznego komercyjnego i osobistego wykorzystania wynalazku. Podstawowe protokoły, przełączniki, mechanizmy i oprogramowanie, na których opiera się Internet, zostały opracowane i udoskonalone dla kultury sieciowej, która miała być otwarta i Pomysł szkodzenia sieci lub wykorzystywania jej do wrogich celów był poza rozważeniem. W końcu kto chciałby zaszkodzić zdolności tak potężnej jak nowa globalna sieć zasobów komputerowych? Samo zbudowanie i obsługa wczesnych sieci było wystarczająco trudne; celowe powodowanie zakłóceń przyniosło efekt przeciwny do zamierzonego. Ten sposób myślenia zaczął się zmieniać pod koniec lat 80. i na początku lat 90., gdy coraz więcej użytkowników uzyskało dostęp do Internetu. Wielu nowoprzybyłych nie było informatykami ani badaczami. Byli to „zwykli ludzie” szukający sposobów na rozszerzenie wykorzystania komputerów osobistych szeroko dostępnych w biurach i domach. Internet oferował nowe medium komunikacyjne oraz dostęp do systemów poza biurem użytkownika. lub dom był ekscytującą koncepcją. Naturalna ciekawość doprowadziła do wzrostu zainteresowania tym, jak daleko można się posunąć w Internecie – zbadać nieskończone ilości danych i informacji, które wcześniej były niedostępne dla przeciętnego użytkownika. Niestety, gdy dostęp do jakiegokolwiek zasobu lub obiektu, który był wcześniej niedostępny lub niedostępny, zostanie przyznany na tak szerokich zasadach, nastąpi nadużycie tego przywileju. To zachowanie jest dobrze rozumiane w świecie fizycznym, na przykład nową autostradą lub systemem kolei masowego transportu, a nawet nowym biurowcem. O ile nie będą ściśle kontrolowani, poszukiwacze ciekawości będą próbować uzyskać dostęp tak szybko, jak to możliwe, nawet przed zakończeniem budowy lub w trakcie ostatecznych testów. Kierowcy będą próbowali iść na skróty na nowych autostradach, które nie są jeszcze otwarte dla publiczności; ciekawscy dojeżdżający do pracy zostaną w metrze za ostatnią stacją, aby zobaczyć, jak wygląda nowa linia, zanim zostanie otwarta do użytku. Z wyjątkiem sytuacji, gdy zostaną skonfrontowani ze strażnikiem, przyszli dociekliwi mieszkańcy będą wędrować po niedokończonych budynkach lub kompleksy biurowe. Jeśli chodzi o Internet, sytuację jeszcze bardziej komplikował gwałtowny wzrost komercjalizacji Internetu w latach 90., który osiągnął szczyt w postaci „bańki internetowej” na początku 2000 r. Pod koniec tej dekady miliony użytkowników korzystały z Internetu. globalna sieć wykorzystująca komputery o większej mocy niż najlepsze komputery mainframe lub superkomputery sprzed zaledwie 10 lat. Tylko ułamek tych użytkowników miał pojęcie, jak działają komputery lub jak zostały zaprogramowane. Jeszcze mniej osób miało pojęcie o mocy, jaką reprezentuje pojedynczy komputer.

Lean Customer Development : Składowe zweryfikowanej hipotezy

Potwierdzona hipoteza składa się zazwyczaj z czterech elementów, wyrażonych entuzjastycznie:

  • Klient potwierdza, że ​​na pewno istnieje problem lub problem
  • Klient uważa, że ​​problem można i należy rozwiązać
  • Klient aktywnie zainwestował (wysiłek, czas, pieniądze, krzywa uczenia się), próbując rozwiązać ten problem
  • Klient nie ma okoliczności, na które nie ma wpływu, które uniemożliwiają mu podjęcie próby rozwiązania problemu lub punktu bólu

Co powinna ci powiedzieć każda rozmowa kwalifikacyjna

Kiedy ponownie czytasz notatki z wywiadu, musisz mieć pewność, że zrozumiałeś głębię bólu tej osoby i poziom jej motywacji do naprawienia tego. Powinieneś być w stanie z pewnością odpowiedzieć na pytania, takie jak:

  • Gdybym miał dzisiaj produkt, który całkowicie rozwiązał problem tego klienta, czy widzę jakieś przeszkody, które uniemożliwiłyby jej zakup lub używanie go?
  • Jak mogłaby go użyć i dopasować do swoich codziennych zajęć?
  • Co by to zastąpiło?
  • Jeśli nie kupiłaby mojego rozwiązania, jakie są konkretne powody, dla których nie?

Jeśli nie możesz odpowiedzieć na te pytania, zmodyfikuj pytania do rozmowy kwalifikacyjnej. Dwa wywiady nie wystarczą, aby upewnić się, że masz rację. Są one jedynie wskazówką, że nie jesteś całkowicie w błędzie.

Zmiana pytań podczas rozmowy kwalifikacyjnej

Nie martw się o zachowanie spójności podczas wywiadów. Kiedy jako student prowadziłem badania z zakresu psychologii społecznej, wmówiono mi, że muszę przedstawić ten sam scenariusz, w ten sam sposób, aby uniknąć wprowadzania stronniczości do badania. Podobną radę usłyszałem, kiedy po raz pierwszy zacząłem przeprowadzać testy użyteczności: nie zmieniaj pytań, bo tylko wyniki będą błędne. Tak nie jest w przypadku wywiadów dotyczących rozwoju klienta. Nie badasz konkretnej sytuacji, w której kontrolowane są wszystkie zmienne oprócz jednej: uczysz się o wyjątkowych osobach w różnych środowiskach, które nie zawsze podejmują decyzje racjonalnie. Z biegiem czasu Twoje pytania i styl będą ewoluowały w naturalny sposób. Dostosujesz to, co mówisz i jak to mówisz, na podstawie osoby, z którą rozmawiasz. Najważniejsze jest, aby zawsze się uczyć. W przypadku tych lub innych problemów najlepszym sposobem rozwiązania problemów jest uzyskanie drugiej opinii. Chwyć współpracownika i poproś ją o przeczytanie prośby o rozmowę kwalifikacyjną lub wysłuchanie, jak zadajesz pytania. Perspektywa innej osoby znacznie ułatwia wychwycenie pomniejszych punktów, które mogą zostać błędnie zinterpretowane przez innych.