Lean Customer Development : W ciągu pięciu wywiadów: pierwsza naprawdę podekscytowana osoba

W ciągu pierwszych pięciu wywiadów spotkasz co najmniej jedną osobę, która jest naprawdę podekscytowana Twoim pomysłem. Jako minimum, jeśli zidentyfikujesz dobry problem do rozwiązania, ktoś przekaże Ci bezpośrednie skierowanie („To mnie nie dotyczy, ale wiem dokładnie, z kim powinieneś porozmawiać”). Jeśli słyszałeś coś takiego, świetnie! Tak trzymaj. Jeśli tak nie jest, prawdopodobnie jest prawdą:

  • Rozmawiasz z niewłaściwymi ludźmi
  • Twój problem tak naprawdę nie jest problemem

Tak czy inaczej, unieważnia to twoją hipotezę (pamiętaj, że hipoteza składa się z dwóch części: że ten typ osoby ma tego typu problem). Można mówić do jednego odstającego. Można mówić o dwóch wartościach odstających. Rozmowa z pięcioma z rzędu jest mało prawdopodobna. Jeśli pięć osób nie jest zainteresowanych, to prawdopodobnie dlatego, że unieważniłeś swoją hipotezę. “Ale poczekaj!” mógłbyś powiedzieć. „Może nie zadawałem właściwych pytań”. To mało prawdopodobne. Kiedy rozmawiasz z osobą, której naprawdę zależy na rozwiązaniu swojego problemu, jej pasja przejdzie przez nią i odpowie na pytanie, które powinieneś był zadać. Kiedy już usłyszysz swoją pierwszą naprawdę podekscytowaną osobę, możesz pomyśleć o tym, jak szybko możesz zebrać MVP. Generalnie zalecam rozpoczęcie od 10 wywiadów, ale jeśli możesz zebrać MVP w czasie krótszym niż zrobienie kolejnych 5 wywiadów, po co czekać? Bez względu na to, jak bardzo ktoś jest podekscytowany twoim produktem, prawdziwym testem jest to, czy jest skłonny wyrzucić pieniądze (lub inną osobistą walutą, na przykład jego czas, zamówienie w przedsprzedaży lub adres e-mail). Jeśli możesz znaleźć sposób na odebranie waluty od użytkownika w ciągu kilku godzin, zrób to!

Ile Google wie o Tobie : Podstawowa analiza obrazów

Analiza obrazów to sztuka analizowania obrazów w celu wydobycia użytecznych informacji. Analiza zdjęć z góry jest praktykowana od 1858 r., Kiedy to Gaspar Felix Tournachon wykonał pierwsze zdjęcie lotnicze (Paryża) z balonu. Obrazy zostały później przechwycone z kamer noszonych przez gołębie (1903), latawce (1906) i rakiety na sprężone powietrze (1906). Wilbur Wright wykonał pierwsze zdjęcie z samolotu w 1909 roku w Centrocelli we Włoszech. Wartość wywiadowcza obrazów napowietrznych nie pozostała niezauważona przez wojsko. Zdjęcia z góry zostały zebrane podczas wojny domowej w USA, I i II wojny światowej, ale ich znaczenie wzrosło wraz z pojawieniem się zdjęć satelitarnych. Corona była pierwszym systemem rozpoznania fotograficznego w Stanach Zjednoczonych. Działał od sierpnia 1960 do maja 1972 i został odtajniony w lutym 1995. Podczas 12-letniego programu wykonał ponad 100 misji i wykonał ponad 800 000 zdjęć. [25] Satelity w programie Corona otrzymały oznacznik KH (KeyHole) od KH-1 do KH-6, z maksymalną rozdzielczością naziemną (to znaczy dla najmniejszego dostrzegalnego obiektu) 6 stóp. Obecnie użytkownicy Google Earth i Google Maps cieszą się znacznie większą rozdzielczością dzięki zdjęciom zebranym za pomocą satelitów i samolotów, otwierając sztukę analizy obrazów dla każdego, kto ma dostęp do Internetu. Te obrazy, wraz z innymi informacjami swobodnie dostępnymi w sieci WWW, zwiększyły wrażliwość treści tych usług online. W przeszłości narody ryzykowały życie szpiegów i członków usług, aby zdobyć to, co teraz można po prostu pobrać ze swojego salonu lub biura. Pełne omówienie ryzyka związanego ze zdjęciami z góry wykracza poza zakres tej książki; Jednak ważne jest, aby zdać sobie sprawę, że chociaż niewprawne oko może wykryć wrażliwe informacje, doświadczony analityk obrazowania może wydobyć znacznie więcej wglądu. Rozważmy kilka prostych przykładów. Pierwszy przykład to skromny parking. Mapy Google zawierają wiele zdjęć wielu miast z rozdzielczością umożliwiającą wykrycie stosunkowo małych obiektów, takich jak samochody. Zwróć uwagę, że coś tak nieszkodliwego, jak parking, może ujawnić wiele informacji, takich jak liczba pracowników, których może zatrudniać firma lub czy zdjęcie zostało zrobione w weekend czy w dzień powszedni. Jeśli kiedykolwiek grałeś w grę polegającą na budowaniu miasta, taką jak SimCity, starannie zbudowałeś miasto, dodając strefy handlowe, przemysłowe i mieszkalne, a także transport i obiekty użyteczności publicznej. Podobnie możesz analizować miasto, dekonstruując je warstwa po warstwie. Bardziej szczegółowe przykłady znajdują się w Tabeli 6-1, którą oparłem na menu SimCity i innych źródłach [27]. Wykwalifikowana analiza wiąże się z poważnym zagrożeniem bezpieczeństwa i niewiele możemy zrobić, aby się przed nim chronić, chyba że chcemy zainstalować siatkę maskującą na naszych domach i firmach.

Zaufanie w Zaufanie w Cyberspace : Rozwiązanie oparte na TUH (drzewo oparte na hierarchii użytkowników)

Ta metoda wykorzystuje zachłanny algorytm, który próbuje rozwiązać niedeterministyczny problem wielomianu czasu wielomianowego (NP) – trudny problem minimalizacji liczby kluczy bezpośrednio przekazywanych użytkownikom. Autorzy rozważają macierzową reprezentację praw użytkownika w zestawach danych, przedstawiając użytkowników jako wiersze, a konfigurację dostępu (AC) związaną z krotkami danych jako kolumny .Przykładową macierz dostępu przedstawia rysunek.

Drzewo derywacji kluczy (TUH), jak pokazano na rysunku poniżej , jest zbudowane z macierzy dostępu A wymuszającej politykę kontroli dostępu.

Mając pusty wierzchołek jako pierwiastek, proponowany algorytm zaczyna włączać do TUH wszystkie wierzchołki reprezentujące AC poprzez skanowanie macierzy A. Ponownie, wierzchołki powinny spełniać częściową kolejność, w której każdy wierzchołek jest wskazywany przez krawędź z wierzchołka macierzystego p, do którego dostęp konfiguracja ACp jest zawarta w ACv. Dlatego każdy wierzchołek będzie powiązany z tajnym kluczem k tak, że klucz dla wierzchołka v zostanie przekazany użytkownikowi u wtedy i tylko wtedy, gdy u należy do vs AC, a u nie należy do rodzica (v) AC. Wszystkie inne klucze, do których użytkownik u ma uprawnienia, uzyskuje się za pomocą mechanizmu wyprowadzania, wykorzystującego jednokierunkowe funkcje skrótu z przypisanych kluczy. Budowanie drzewa wyprowadzania kluczy odbywa się za pomocą transformacji algorytmu obejmującego kroki takie jak (1) zaznaczanie wierzchołków, (2) konstrukcja TUH, (3) drzewo śliwek i (4) przypisanie klawiszy.

Zalety. Zaletą rozwiązania jest outsourcing egzekwowania kontroli dostępu i nie wymaga stałej obecności właściciela danych w trybie online w celu szyfrowania zapytań i odszyfrowywania wyników. Oprócz tego mechanizm ten ogranicza liczbę kluczy prywatnych, które każdy klient musi mieć przy sobie.

Ograniczenia. Elastyczność struktury w celu dostosowania się do częstych modyfikacji zasad kontroli dostępu, szczególnie w przypadku wstawiania i usuwania użytkowników, jest bardzo ograniczona. Po kilku aktualizacjach krawędzie między wierzchołkami są modyfikowane w taki sposób, że TUH nie jest w stanie utrzymać wydajności wyprowadzania klucza.

W związku z tym TUH musi zostać całkowicie przebudowany, ponownie klucz AC, a dane odszyfrowane i zaszyfrowane.

Ciemna Strona Neta : Brak logiki dla starych ludzi

Inną powracającą cechą nowoczesnej technologii, która została przeoczona przez wiele jej wzmacniaczy, jest to, że pojawienie się nowych technologii, bez względu na to, jak rewolucyjne mogą być ich obwody, nie powoduje automatycznego zniesienia starych praktyk i tradycji. Jeszcze w latach pięćdziesiątych każdy, kto twierdził, że telewizja wzmocni istniejące instytucje religijne, zachęcał do wyśmiewania. A jednak kilkadziesiąt lat później to telewizja Pat Robertson i horda innych teleewangelistów musiała podziękować za ich potężną platformę społecznościową. Kto dziś mógłby się założyć, że Internet podkopie zorganizowaną religię? W rzeczywistości, jak można obecnie zaobserwować wraz z odrodzeniem się nacjonalizmu i religii w sieci, nowe technologie często utrwalają stare praktyki i sprawiają, że stają się one bardziej rozpowszechnione. Claude Fischer, który w swojej książce America Calling badał sposób, w jaki Amerykanie przyjęli telefon w XIX wieku, zauważa, że ​​był on używany przede wszystkim do „poszerzania i pogłębiania”. .. istniejące wzorce społeczne zamiast je zmieniać. ” Zamiast wyobrażać sobie telefon jako narzędzie, które pobudza ludzi do przyjęcia nowoczesności, Fischer zaproponował, abyśmy myśleli o nim jako o „narzędziu, którego współcześni ludzie używali do różnych celów, w tym być może do utrzymania, a nawet ulepszenia dawnych praktyk”. Aby Internet mógł odegrać konstruktywną rolę w uwolnieniu świata od uprzedzeń i nienawiści, musi mu towarzyszyć niezwykle ambitny zestaw reform społecznych i politycznych; w przypadku ich braku choroby społeczne mogą się tylko pogorszyć. Innymi słowy, bez względu na wewnętrzną logikę danej technologii, jest ona zwykle podatna na kształtowanie przez logikę całego społeczeństwa. „Chociaż każda technologia komunikacyjna ma swoje indywidualne właściwości, zwłaszcza jeśli chodzi o to, który z ludzkich zmysłów faworyzuje, a które ignoruje” – pisze Susan Douglas, badaczka komunikacji na Uniwersytecie Michigan, „system ekonomiczny i polityczny, w którym urządzenie jest wbudowane prawie zawsze przewyższa możliwości technologiczne i imperatywy ”. A jednak rzadko uniemożliwia to armii ekspertów technologicznych twierdzenie, że złamali tę logikę i zrozumieli, o co chodzi w radiu, telewizji czy internecie; otaczające go siły społeczne są zatem uważane za przeważnie nieistotne i można je łatwo zignorować. Marshall McLuhan, pierwszy filozof muzyki pop, uważał, że telewizja ma logikę: w przeciwieństwie do druku, zachęca widzów do wypełnienia luk w tym, co widzą, pobudza więcej zmysłów i ogólnie zbliża nas do oryginalnego plemiennego warunek (nowa równowaga, którą McLuhan wyraźnie faworyzował). Problem polega na tym, że podczas gdy McLuhan gonił za wewnętrzną logiką telewizji, mógł przegapić sposób, w jaki można ją zawłaszczyć przez korporacyjną Amerykę i wywołać skutki społeczne o wiele bardziej oczywiste (i brzydsze) niż zmiany w niektórych niejasnych wskaźnikach zmysłowych, które McLuhan tak skrupulatnie obliczył. dla każdego medium. Sytuacja pogarsza się w kontekście międzynarodowym. „Logika”, do której przypuszczalnie mają dostęp uczeni i decydenci, jest po prostu interpretacją tego, do czego dana technologia jest zdolna w określonych okolicznościach. Hermann Góring, który po mistrzowsku wykorzystał radio w hitlerowskich Niemczech, widział jego logikę w zupełnie innych kategoriach niż, powiedzmy, Marconi. Tak więc wiedza o danej technologii wciąż niewiele mówi nam o tym, jak dokładnie ukształtuje ona złożone, nowoczesne społeczeństwo. Ekonomista William Schaniel podziela ten pogląd, ostrzegając nas, że „analityczny punkt ciężkości transferu technologii powinien być skupiony na przyjmowaniu kultury, a nie na przenoszonych materiałach”, po prostu dlatego, że chociaż „nowa technologia tworzy zmianę”, ta zmiana nie jest „ ustalone z góry przez przyjętą technologię. ” Zamiast tego, pisze Schaniel, „przyjęta technologia jest dostosowywana przez społeczeństwo adopcyjne do ich procesów społecznych”. Kiedy do Europy sprowadzono proch strzelniczy z Azji, Europejczycy nie przyjęli jednocześnie azjatyckich zasad i wierzeń na jego temat. Przyjęty proch został dostosowany przez cywilizacje europejskie zgodnie z ich własnymi wartościami i tradycjami. Internet to nie proch strzelniczy; jest znacznie bardziej złożony i wielowymiarowy. Ale to tylko dodaje pilności naszym dążeniom do zrozumienia społeczeństw, które mają „przekształcić” lub „zdemokratyzować”. Może je przekształcić, ale decydenci szczególnie interesują się kierunkiem, w którym to przekształcenie będzie postępować. Jedynym sposobem, aby to zrozumieli, jest oparcie się determinizmowi technologicznemu i podjęcie dokładnej analizy nietechnologicznych sił, które tworzą środowiska, które chcą zrozumieć lub przekształcić. Może mieć sens myślenie o technologiach jako ucieleśniających pewną logikę na wczesnym etapie ich wdrażania, ale gdy dojrzewają, ich logika zwykle ustępuje miejsca silniejszym siłom społecznym. Niezdolność do dostrzeżenia, że ​​logika technologii, o ile można powiedzieć, że istnieje, różni się w zależności od kontekstu, po części wyjaśnia brak zrozumienia przez Zachód, jak ważny jest Internet dla autorytarnych reżimów. Nie mając dobrej teorii na temat wewnętrznej logiki politycznej i społecznej tych reżimów, zachodni obserwatorzy zakładają, że dyktatorzy i ich kumple nie mogą znaleźć sposobu na wzmocnienie reżimu w Internecie, ponieważ w warunkach zachodnich liberalnych demokracji – i takie są tylko warunki, które ci obserwatorzy rozumieją – Internet osłabia państwo i decentralizuje władzę. Zamiast zagłębiać się w domniemaną logikę Internetu, zachodni dobroczyńcy powinni uzyskać bardziej wyrafinowany obraz politycznej i społecznej logiki autorytaryzmu w warunkach globalizacji. Jeśli decydentom brakuje dobrego teoretycznego wyjaśnienia tego, co napędza te społeczeństwa, żadna ilość teorii Internetu nie pozwoli im na sformułowanie skutecznej polityki wykorzystania Internetu do promowania demokracji.

Audyt Mózgu Hackera : Społeczeństwo i Internet

Twórcy Internetu we wczesnych latach siedemdziesiątych nie przewidzieli dzisiejszego prawie wyłącznego komercyjnego i osobistego wykorzystania wynalazku. Podstawowe protokoły, przełączniki, mechanizmy i oprogramowanie, na których opiera się Internet, zostały opracowane i udoskonalone dla kultury sieciowej, która miała być otwarta i Pomysł szkodzenia sieci lub wykorzystywania jej do wrogich celów był poza rozważeniem. W końcu kto chciałby zaszkodzić zdolności tak potężnej jak nowa globalna sieć zasobów komputerowych? Samo zbudowanie i obsługa wczesnych sieci było wystarczająco trudne; celowe powodowanie zakłóceń przyniosło efekt przeciwny do zamierzonego. Ten sposób myślenia zaczął się zmieniać pod koniec lat 80. i na początku lat 90., gdy coraz więcej użytkowników uzyskało dostęp do Internetu. Wielu nowoprzybyłych nie było informatykami ani badaczami. Byli to „zwykli ludzie” szukający sposobów na rozszerzenie wykorzystania komputerów osobistych szeroko dostępnych w biurach i domach. Internet oferował nowe medium komunikacyjne oraz dostęp do systemów poza biurem użytkownika. lub dom był ekscytującą koncepcją. Naturalna ciekawość doprowadziła do wzrostu zainteresowania tym, jak daleko można się posunąć w Internecie – zbadać nieskończone ilości danych i informacji, które wcześniej były niedostępne dla przeciętnego użytkownika. Niestety, gdy dostęp do jakiegokolwiek zasobu lub obiektu, który był wcześniej niedostępny lub niedostępny, zostanie przyznany na tak szerokich zasadach, nastąpi nadużycie tego przywileju. To zachowanie jest dobrze rozumiane w świecie fizycznym, na przykład nową autostradą lub systemem kolei masowego transportu, a nawet nowym biurowcem. O ile nie będą ściśle kontrolowani, poszukiwacze ciekawości będą próbować uzyskać dostęp tak szybko, jak to możliwe, nawet przed zakończeniem budowy lub w trakcie ostatecznych testów. Kierowcy będą próbowali iść na skróty na nowych autostradach, które nie są jeszcze otwarte dla publiczności; ciekawscy dojeżdżający do pracy zostaną w metrze za ostatnią stacją, aby zobaczyć, jak wygląda nowa linia, zanim zostanie otwarta do użytku. Z wyjątkiem sytuacji, gdy zostaną skonfrontowani ze strażnikiem, przyszli dociekliwi mieszkańcy będą wędrować po niedokończonych budynkach lub kompleksy biurowe. Jeśli chodzi o Internet, sytuację jeszcze bardziej komplikował gwałtowny wzrost komercjalizacji Internetu w latach 90., który osiągnął szczyt w postaci „bańki internetowej” na początku 2000 r. Pod koniec tej dekady miliony użytkowników korzystały z Internetu. globalna sieć wykorzystująca komputery o większej mocy niż najlepsze komputery mainframe lub superkomputery sprzed zaledwie 10 lat. Tylko ułamek tych użytkowników miał pojęcie, jak działają komputery lub jak zostały zaprogramowane. Jeszcze mniej osób miało pojęcie o mocy, jaką reprezentuje pojedynczy komputer.

Lean Customer Development : Składowe zweryfikowanej hipotezy

Potwierdzona hipoteza składa się zazwyczaj z czterech elementów, wyrażonych entuzjastycznie:

  • Klient potwierdza, że ​​na pewno istnieje problem lub problem
  • Klient uważa, że ​​problem można i należy rozwiązać
  • Klient aktywnie zainwestował (wysiłek, czas, pieniądze, krzywa uczenia się), próbując rozwiązać ten problem
  • Klient nie ma okoliczności, na które nie ma wpływu, które uniemożliwiają mu podjęcie próby rozwiązania problemu lub punktu bólu

Co powinna ci powiedzieć każda rozmowa kwalifikacyjna

Kiedy ponownie czytasz notatki z wywiadu, musisz mieć pewność, że zrozumiałeś głębię bólu tej osoby i poziom jej motywacji do naprawienia tego. Powinieneś być w stanie z pewnością odpowiedzieć na pytania, takie jak:

  • Gdybym miał dzisiaj produkt, który całkowicie rozwiązał problem tego klienta, czy widzę jakieś przeszkody, które uniemożliwiłyby jej zakup lub używanie go?
  • Jak mogłaby go użyć i dopasować do swoich codziennych zajęć?
  • Co by to zastąpiło?
  • Jeśli nie kupiłaby mojego rozwiązania, jakie są konkretne powody, dla których nie?

Jeśli nie możesz odpowiedzieć na te pytania, zmodyfikuj pytania do rozmowy kwalifikacyjnej. Dwa wywiady nie wystarczą, aby upewnić się, że masz rację. Są one jedynie wskazówką, że nie jesteś całkowicie w błędzie.

Zmiana pytań podczas rozmowy kwalifikacyjnej

Nie martw się o zachowanie spójności podczas wywiadów. Kiedy jako student prowadziłem badania z zakresu psychologii społecznej, wmówiono mi, że muszę przedstawić ten sam scenariusz, w ten sam sposób, aby uniknąć wprowadzania stronniczości do badania. Podobną radę usłyszałem, kiedy po raz pierwszy zacząłem przeprowadzać testy użyteczności: nie zmieniaj pytań, bo tylko wyniki będą błędne. Tak nie jest w przypadku wywiadów dotyczących rozwoju klienta. Nie badasz konkretnej sytuacji, w której kontrolowane są wszystkie zmienne oprócz jednej: uczysz się o wyjątkowych osobach w różnych środowiskach, które nie zawsze podejmują decyzje racjonalnie. Z biegiem czasu Twoje pytania i styl będą ewoluowały w naturalny sposób. Dostosujesz to, co mówisz i jak to mówisz, na podstawie osoby, z którą rozmawiasz. Najważniejsze jest, aby zawsze się uczyć. W przypadku tych lub innych problemów najlepszym sposobem rozwiązania problemów jest uzyskanie drugiej opinii. Chwyć współpracownika i poproś ją o przeczytanie prośby o rozmowę kwalifikacyjną lub wysłuchanie, jak zadajesz pytania. Perspektywa innej osoby znacznie ułatwia wychwycenie pomniejszych punktów, które mogą zostać błędnie zinterpretowane przez innych.

Ile Google wie o Tobie : Treść też jest zagrożeniem

Zdjęcia satelitarne o wysokiej rozdzielczości były kiedyś jedyną domeną agencji wywiadowczych, ale teraz wysokiej jakości obrazy są dostępne za darmo (pomyśl o narzędziach dostarczonych przez Google, AOL i Yahoo!). Właśnie przyjrzeliśmy się, w jaki sposób nasze interakcje z tymi usługami ujawniają poufne informacje, ale ważne jest, aby wziąć pod uwagę zawartość tych usług, nawet jeśli nigdy z nich nie korzystasz. Ta klasa zagrożeń jest nieco inna, ponieważ sama treść może być wrażliwa na obrazy, zarówno z góry, jak i z poziomu ulicy. Pojawienie się obrazów o wysokiej rozdzielczości oddany w ręce mas radykalnie zmienił pojęcie bezpieczeństwa fizycznego. Historycznie rzecz biorąc, granice państw, płoty, osłony i inne zabezpieczenia mają ograniczony dostęp do wrażliwych miejsc. Tylko państwa narodowe miały możliwość zbadania tych lokalizacji, wykorzystując między innymi względnie wolny od ryzyka dostęp zapewniany przez satelity i samoloty na dużych wysokościach, takie jak U2. Nie można było po prostu wskoczyć do Map Google i powiększyć, aby uzyskać szczegółowy widok. Ten poziom łatwego dostępu zmienił pojęcie bezpieczeństwa i prywatności.

Seria Eyeballing Johna Younga na Cryptome.org i Eyeball-series.org demonstrują moc, jaką dają nam te narzędzia. Young łączy obrazy satelitarne o wysokiej rozdzielczości z innymi publicznie dostępnymi informacjami, aby stworzyć potężne analizy, takie jak rezydencja wiceprezydenta Stanów Zjednoczonych, indyjskie Centrum Badań Atomowych Bhabha oraz Agencja Bezpieczeństwa Narodowego. Podobnie witryna Google Sightseeing Alexa i Jamesa Turnbulla (www.googlesightseeing.com) wskazuje obszary zainteresowania znalezione w danych zdjęć Google. Skategoryzowali obrazy z całej Ziemi, w tym samoloty, mosty, budynki, miejsca filmowe, statki kosmiczne, a nawet nagie osoby. Podczas gdy Google Sightseeing opiera się na wskazówkach turystów Google z całego świata, aby znaleźć ciekawe miejsca, Wikimapia ma inne podejście. Wikimapia umożliwia użytkownikom internetu bezpośrednie dodawanie adnotacji do zdjęć Google. Te adnotacje, około 4,5 miliona, są następnie widoczne dla świata. Koncepcja jest prosta, fajna i użyteczna, ale zagrożenia bezpieczeństwa są poważne. Każdy użytkownik może dodawać adnotacje do map w oparciu o informacje wewnętrzne, których w innym przypadku nie można byłoby wykryć za pomocą samych zdjęć. Podczas badania figury jest bardzo mało prawdopodobne, aby zidentyfikować struktury w środku dwóch dużych okręgów. Cóż, jedna Wikimapia uprzejmie oznaczyła je jako „Jump Towers”. Po krótkich badaniach okaże się, że te wieże są używane do szkolenia spadochroniarzy w Szkole Powietrznodesantowej Armii Stanów Zjednoczonych. Ważną lekcją jest to, że do ujawnienia czegoś, co Ty lub Twoja firma wolelibyście zachować w tajemnicy, wystarczy jedna osoba; za pomocą Wikimapii lub podobnego narzędzia mogą podzielić się nią ze światem. Obecnie obrazy są zbierane za pośrednictwem satelitów, załogowych statków powietrznych, bezzałogowych statków powietrznych, a nawet samochodów wyposażonych w kamery (patrz sekcja „Widok z poziomu ulicy”). W przyszłości zobaczymy obrazy zebrane z praktycznie każdej platformy, jaką możesz sobie wyobrazić, i możesz oczekiwać, że rozdzielczość obrazów znacznie wzrośnie wraz z poprawą technologii czujników. Wygląda na to, że żyjemy w stale rosnącej siatce nadzoru. Praktycznie każdy nowoczesny telefon komórkowy ma wbudowany aparat, a wiele telefonów ma również wbudowany GPS. Połączenie tych dwóch doprowadziło do powstania geotagowania, czyli osadzania informacji geograficznych w różnych formach mediów. Witryny takie jak flickr.com umożliwiają teraz łatwe publikowanie zdjęć z geotagami. Obserwujemy również znaczny wzrost liczby rządowych i komercyjnych kamer monitorujących, takich jak brytyjscy strażnicy ruchu, którzy zostali wydani zamontowane kamery wideo i plany stworzenia zasłony zabezpieczającej czytniki tablic rejestracyjnych oraz ponad 3000 publicznych i prywatnych kamer wideo obejmujących centrum Nowego Jorku.

Zaufanie w Cyberspace : Rozwiązania w zakresie egzekwowania zasad po stronie użytkownika

Zaproponowano podejścia oparte na przesunięciu wymuszania zasad dostępu po stronie klienta w celu przezwyciężenia ograniczeń wymuszania zasad po stronie właściciela. Podejścia do przetwarzania zapytań koncentrujące się na egzekwowaniu zasad dostępu po stronie klienta wymagają etapu przetwarzania offline, w którym identyfikowane są zestawy danych, do których ma dostęp każdy użytkownik, a dokładniej profil użytkownika. Odpowiedni klucz jest następnie używany do szyfrowania każdego zestawu danych przed jego outsourcingiem. Na koniec każdy użytkownik otrzymuje zestaw kluczy umożliwiających dostęp do zbiorów danych zgodnie z jego / jej uprawnieniami. W tym przypadku zadaniem właściciela danych jest zidentyfikowanie zestawu kluczy niezbędnych każdemu użytkownikowi lub grupie w celu uzyskania dostępu do danych, do przeglądania których mają uprawnienia. Główną zaletą tego pomysłu jest to, że właściciel danych nie jest bezpośrednio zaangażowany, gdy użytkownik pyta o zaszyfrowaną bazę danych. Egzekwowanie kontroli dostępu na poziomie użytkownika napotyka dwa główne problemy: (1) określenie zestawu kluczy i (2) ich wydajne generowanie. Każdy użytkownik może uzyskiwać dostęp do kilku zestawów danych, które same mogą przecinać się z zestawami innych użytkowników, którzy wymagają, aby zestawy danych były podzielone na nieprzecinające się zestawy danych, co zwiększa złożoność. Ponadto algorytm generowania kluczy musi być tak prosty, jak to tylko możliwe, aby był skalowalny w praktyce i elastyczny, aby można go było dostosowywać do częstych zmian praw dostępu użytkownika. Poniższe rozwiązania proponowane do wymuszania zasad po stronie użytkownika próbują rozwiązać te problemy.

Ciemna Strona Neta : Podwójne życie technologii

Jeśli istnieje nadrzędny temat współczesnej technologii, to jest nim to, że przeciwstawia się ona oczekiwaniom jej twórców, przyjmując funkcje i role, które nigdy nie były zamierzone podczas tworzenia. David Noble, płodny historyk nowoczesnej technologii, podkreśla to mocno w swojej książce Forces of Production z 1984 roku. „Technologia”, pisze Noble, „prowadzi podwójne życie, jedno, które jest zgodne z intencjami projektantów i interesów władzy, a drugie, które im zaprzecza – idąc za plecami ich architektów, przynosząc niezamierzone konsekwencje i niezamierzone możliwości”. Nawet Ithiel de Sola Pool, naiwny wierzący w moc informacji podważającej autorytaryzm, był świadomy, że sama technologia nie wystarczy do osiągnięcia pożądanych rezultatów politycznych, pisząc, że „technologia kształtuje strukturę bitwy, ale nie każdy jej wynik”. Nic dziwnego, że futuryści często się mylą. George Wise, historyk związany z General Electric, przeanalizował półtora tysiąca prognoz technologicznych sporządzonych między 1890 a 1940 rokiem przez inżynierów, historyków i innych naukowców. Jedna trzecia tych przewidywań sprawdziła się, nawet jeśli była nieco ogólnikowa. Pozostałe dwie trzecie były fałszywe lub pozostawały niejasne. Z politycznego punktu widzenia lekcja, jaką należy wyciągnąć z historii technologii i licznych prób jej przepowiedzenia, jest taka, że ​​niewiele nowoczesnych technologii jest wystarczająco stabilnych – pod względem projektu, zastosowania, odwołania do społeczeństwa – aby zapewnić bezbłędne planowanie polityki. Dzieje się tak zwłaszcza na wczesnych etapach cyklu życia technologii. Każdy, kto pracowałby nad polityką „wolności radiowej” w latach dwudziestych XX wieku, byłby bardzo zaskoczony rozwojem – wiele z nich negatywnych – z lat trzydziestych XX wieku. Problem z dzisiejszym Internetem polega na tym, że jest on raczej kiepskim towarzyszem dla osoby zajmującej się planowaniem polityki. Zaangażowanych jest zbyt wielu interesariuszy, od rządów krajowych po organizacje międzynarodowe, takie jak ICANN, i od ONZ po użytkowników usług internetowych; niektóre techniczne elementy jego architektury mogą ulec zmianie, jeśli zabraknie mu adresów; złośliwe siły, takie jak spamerzy i cyberprzestępcy, nieustannie tworzą własne innowacje. Przewidywanie przyszłości Internetu jest procesem naznaczonym znacznie większą złożonością niż przewidywanie przyszłości telewizji, ponieważ Internet jest technologią, którą można wykorzystać do wielu różnych zastosowań za tak niską cenę. Jest to tak nieprzewidywalnie istotne, że powinno wzbudzić wyjątkowo podejrzliwe podejście do ambitnych, a jednocześnie całkowicie niejednoznacznych inicjatyw politycznych, takich jak wolność w Internecie, które wymagają pewnego stopnia stabilności i dojrzałości, którego Internet po prostu nie ma, podczas gdy ich zwolennicy formułują normatywne twierdzenia dotyczące tego, co powinien on mieć. wyglądają tak, jakby już wiedzieli, jak rozwiązać wszystkie problemy. Ale niesforne narzędzie w rękach zbyt pewnych siebie ludzi to przepis na katastrofę. O wiele bardziej produktywne byłoby założenie, że Internet jest wysoce niestabilny; że próba przebudowania własnej polityki wokół narzędzia, które jest tak złożone i kapryśne, nie zadziała; i że zamiast próbować rozwiązać to, co w zasadzie może być nierozwiązywalnymi globalnymi problemami, dobrze byłoby zacząć od nieco mniejszej skali, w której można by nadal uchwycić, jeśli nie w pełni opanować, powiązania między narzędziem a jego otoczeniem. Ale taka ostrożność może odpowiadać tylko intelektualistom. Pomimo nieuniknionej niepewności związanej z technologią, decydenci muszą podejmować decyzje, a technologia odgrywa w nich coraz większą rolę. Przewidywania dotyczące tego, jak może działać technologia, są zatem nieuniknione, w przeciwnym razie nastąpiłby paraliż. Najlepsze, co mogą zrobić decydenci, to zrozumieć, dlaczego tak wielu ludzi tak często się myli, a następnie spróbować stworzyć mechanizmy i procedury, które mogłyby skutecznie wyeliminować nadmierny szum z procesu decyzyjnego. Największym problemem związanym z większością prognoz dotyczących technologii jest to, że niezmiennie opierają się one na tym, jak świat funkcjonuje dzisiaj, a nie na tym, jak będzie działać jutro. Ale świat, jak wiemy, nie stoi w miejscu: polityka, ekonomia i kultura nieustannie zmieniają środowisko, które technologie miały zmienić, najlepiej zgodnie z naszymi przewidywaniami. Polityka, ekonomia i kultura również głęboko przekształcają same technologie. Niektóre, jak radio, stają się tanie i wszechobecne; inne, takie jak samolot, stają się drogie i dostępne tylko dla nielicznych. Co więcej, wraz z pojawieniem się nowych technologii niektóre starsze stają się przestarzałe (faksy) lub znajdują nowe zastosowania (telewizory jako rekwizyty do grania w gry na Wii).

Paradoksalnie, technologie mające na celu złagodzenie konkretnego problemu mogą w rzeczywistości go pogorszyć. Jako Ruth Schwartz Cowan, historyk nauki z University of Pennsylvania, pokazuje w swojej książce MoreWork for Mother, po 1870 roku gospodynie domowe pracowały dłużej, mimo że coraz więcej czynności domowych było zmechanizowanych. (Cowan zauważa, że ​​w 1950 r. Amerykańska gospodyni domowa samodzielnie wyprodukowała to, czego jej odpowiednik potrzebował trzech lub czterech pracowników zaledwie sto lat wcześniej). Kto mógł przewidzieć, że rozwój „urządzeń oszczędzających pracę” wpłynął na zwiększenie obciążenia prac domowych dla większości kobiet? Podobnie, wprowadzenie komputerów do siły roboczej nie przyniosło oczekiwanego wzrostu wydajności (Tetris był być może częścią jakiegoś tajnego sowieckiego spisku mającego na celu powstrzymanie kapitalistycznej gospodarki). Zdobywca nagrody Nobla ekonomista Robert Solow zażartował, że „erę komputerów można zobaczyć wszędzie, ale nie w statystykach produktywności!” Częścią problemu z przewidywaniem dokładnych skutków ekonomicznych i społecznych technologii jest niepewność związana ze skalą, w jakiej taka technologia byłaby stosowana. Pierwsze samochody zostały uznane za technologie, które mogą uczynić miasta czystszymi, wyzwalając je od obornika końskiego. Produkty uboczne silnika spalinowego mogą być smaczniejsze niż obornik, ale biorąc pod uwagę wszechobecność samochodów w dzisiejszym świecie, rozwiązały one jeden problem tylko poprzez spowodowanie innego zanieczyszczenia – znacznie gorszego. Innymi słowy, przyszłe zastosowania określonej technologii można często opisać za pomocą starego porzekadła „To ekonomia, głupcze”. William Galston, były doradca prezydenta Clintona i badacz polityki publicznej w Brookings Institution, podał mocny przykład tego, jak często nie doceniamy siły sił ekonomicznych w warunkowaniu społecznego wpływu technologii. Wyobraź sobie, mówi, hipotetyczną konferencję naukową na temat społecznych skutków telewizji, zwołaną na początku lat pięćdziesiątych. Konsensus na konferencji prawie na pewno byłby taki, że telewizja jest gotowa do wzmocnienia więzi społecznych i pomnażania kapitału społecznego. Telewizory były rzadkie i drogie, a sąsiedzi musieli dzielić się i odwiedzać swoje domy. Weź udział w dzisiejszych konferencjach akademickich na temat telewizji, a uczestnicy będą prawdopodobnie żałować wszechobecnej „kultury sypialni”, w której dostępność wielu telewizorów w jednym domu jest postrzegana jako erozja więzi w rodzinach, a nie tylko w sąsiedztwie. Innym powodem, dla którego przyszłość danej technologii jest tak trudna do przewidzenia, jest to, że zniknięciu jednego zestawu pośredników często towarzyszy pojawienie się innych pośredników. Jak zauważył James Carey, badacz mediów z Columbia University, „jako jeden zestaw granic, jeden zestaw struktur społecznych zostaje zburzony, inny zestaw granic zostaje wzniesiony. Łatwiej nam zobaczyć, jak znikają granice ”. Rzadko zauważamy, że powstają nowe. W 1914 roku Popular Mechanics myślał, że era rządów się skończyła, ogłaszając, że telegrafia bezprzewodowa pozwala „prywatnemu obywatelowi komunikować się na duże odległości bez pomocy rządu lub korporacji”. Jednak dopiero piętnaście lat później garstka korporacji zdominowała dziedzinę komunikacji radiowej, mimo że opinia publiczna wciąż miała złudzenia, że ​​radio jest wolnym i zdecentralizowanym mediami. (Fakt, że taniały radia, tylko przyczynił się do tych złudzeń). Podobnie, podobnie jak dzisiejsi guru Internetu próbują nas przekonać, że nadeszła era „wolnego”, prawie na pewno tak nie jest. Wszystkie te darmowe filmy z kotami, które otrzymują miliony odsłon na YouTube, są przechowywane na potężnych centrach serwerów, których uruchomienie kosztuje miliony dolarów, zwykle w postaci samych rachunków za prąd. Te ukryte koszty wcześniej czy później spowodują problemy środowiskowe, które boleśnie uświadomią nam, jak drogie są takie technologie. W 1990 roku kto mógł przewidzieć, że Greenpeace pewnego dnia opublikuje obszerny raport o środowiskowych konsekwencjach przetwarzania w chmurze, a niektórzy naukowcy przeprowadzą wieloletnie badania nad wpływem spamu e-mailowego na zmiany klimatu? Fakt, że nie możemy jeszcze obliczyć wszystkich kosztów danej technologii – czy to finansowych, moralnych czy środowiskowych – nie oznacza, że ​​jest ona darmowa.

Audyt Mózgu Hackera : Kontekst historyczny

Pod koniec 1979 r. mniej niż 1000 hostów było podłączonych do kilku dużych sieci komputerowych zwanych łącznie „Internetem”. Większość elementów krajowego Internetu w tym czasie łączyła się za pośrednictwem łączy dzierżawionych od różnych firm telefonicznych, przy czym AT&T była największym operatorem. AT&T cieszyła się niemal monopolem na usługi telefonii międzystrefowej przez prawie pół wieku w Stanach Zjednoczonych, ale ten status wkrótce się zmieni. W 1974 roku Departament Sprawiedliwości Stanów Zjednoczonych, któremu kilka firm oskarżyło telefonicznego giganta o praktyki monopolistyczne, złożył pozew antymonopolowy przeciwko AT&T za zachowania antykonkurencyjne, domagając się rozpadu Bell System. Po wielu latach przesłuchań i negocjacji obie strony ustaliły plan zbycia w 1982 r., Który wejdzie w życie 1 stycznia 1984 r. Ostatecznie zbycie otworzyło krajową konkurencję na odległość dla kilku firm, w tym MCI Communications i Sprint. We wczesnych latach siedemdziesiątych Federalna Komisja Łączności (FCC) udzieliła MCI pozwolenia na budowę i obsługę ograniczonej liczby łączy mikrofalowych niezależnych od tych obsługiwanych przez Bell System. Po zbyciu, mała sieć MCI rozrosła się do systemu od wybrzeża do wybrzeża, który konkurował bezpośrednio z długodystansowym systemem mikrofalowym AT&T. Inny pretendent do AT&T w latach 70., United Telecommunications Company, miał inne podejście. Zamiast budować łącza mikrofalowe, metodologia tej firmy polegała na zakopaniu tysięcy mil światłowodów, aby połączyć miasta w całych Stanach Zjednoczonych. Do 1980 roku United Telecommunications ustawił UNINET jako trzecią co do wielkości sieć komutacji pakietów na świecie i układał światłowody od wybrzeża do wybrzeża tak szybko, jak firma mogła uzyskać dostęp z prawem drogi. Po zbyciu, United Telecommunications uruchomił pierwszą krajową całkowicie światłowodową, w pełni cyfrową usługę telefonii dalekobieżnej w 1986 r. System był sprzedawany pod marką Sprint.

Bez szybkiej sieci szkieletowej Internet był skazany na stosunkowo niskie prędkości oferowane przez drut miedziany. rzędy wielkości wyższe niż to, co było możliwe w przypadku miedzi – były w zasięgu. Dostępność światłowodów w połączeniu z rosnącym zainteresowaniem komercyjnym nowymi sieciami danych przygotowała grunt pod ogromny rozwój Internetu w latach dziewięćdziesiątych. W połowie lat 80. brakowało „zabójczej aplikacji”, niezbędnego składnika niezbędnego do napędzania nadchodzącej eksplozji sieci. Naukowiec ze Szwajcarii wynalazł taką zabójczą aplikację w 1989 roku. Szukając sposobu na powiązanie dokumentów w wielu systemach i sieciach, Tim Berners-Lee zaproponował system „hipertekstu”, który ostatecznie dał początek temu, co obecnie nazywa się World Wide Web.