Ile Google wie o Tobie : Treść też jest zagrożeniem

Zdjęcia satelitarne o wysokiej rozdzielczości były kiedyś jedyną domeną agencji wywiadowczych, ale teraz wysokiej jakości obrazy są dostępne za darmo (pomyśl o narzędziach dostarczonych przez Google, AOL i Yahoo!). Właśnie przyjrzeliśmy się, w jaki sposób nasze interakcje z tymi usługami ujawniają poufne informacje, ale ważne jest, aby wziąć pod uwagę zawartość tych usług, nawet jeśli nigdy z nich nie korzystasz. Ta klasa zagrożeń jest nieco inna, ponieważ sama treść może być wrażliwa na obrazy, zarówno z góry, jak i z poziomu ulicy. Pojawienie się obrazów o wysokiej rozdzielczości oddany w ręce mas radykalnie zmienił pojęcie bezpieczeństwa fizycznego. Historycznie rzecz biorąc, granice państw, płoty, osłony i inne zabezpieczenia mają ograniczony dostęp do wrażliwych miejsc. Tylko państwa narodowe miały możliwość zbadania tych lokalizacji, wykorzystując między innymi względnie wolny od ryzyka dostęp zapewniany przez satelity i samoloty na dużych wysokościach, takie jak U2. Nie można było po prostu wskoczyć do Map Google i powiększyć, aby uzyskać szczegółowy widok. Ten poziom łatwego dostępu zmienił pojęcie bezpieczeństwa i prywatności.

Seria Eyeballing Johna Younga na Cryptome.org i Eyeball-series.org demonstrują moc, jaką dają nam te narzędzia. Young łączy obrazy satelitarne o wysokiej rozdzielczości z innymi publicznie dostępnymi informacjami, aby stworzyć potężne analizy, takie jak rezydencja wiceprezydenta Stanów Zjednoczonych, indyjskie Centrum Badań Atomowych Bhabha oraz Agencja Bezpieczeństwa Narodowego. Podobnie witryna Google Sightseeing Alexa i Jamesa Turnbulla (www.googlesightseeing.com) wskazuje obszary zainteresowania znalezione w danych zdjęć Google. Skategoryzowali obrazy z całej Ziemi, w tym samoloty, mosty, budynki, miejsca filmowe, statki kosmiczne, a nawet nagie osoby. Podczas gdy Google Sightseeing opiera się na wskazówkach turystów Google z całego świata, aby znaleźć ciekawe miejsca, Wikimapia ma inne podejście. Wikimapia umożliwia użytkownikom internetu bezpośrednie dodawanie adnotacji do zdjęć Google. Te adnotacje, około 4,5 miliona, są następnie widoczne dla świata. Koncepcja jest prosta, fajna i użyteczna, ale zagrożenia bezpieczeństwa są poważne. Każdy użytkownik może dodawać adnotacje do map w oparciu o informacje wewnętrzne, których w innym przypadku nie można byłoby wykryć za pomocą samych zdjęć. Podczas badania figury jest bardzo mało prawdopodobne, aby zidentyfikować struktury w środku dwóch dużych okręgów. Cóż, jedna Wikimapia uprzejmie oznaczyła je jako „Jump Towers”. Po krótkich badaniach okaże się, że te wieże są używane do szkolenia spadochroniarzy w Szkole Powietrznodesantowej Armii Stanów Zjednoczonych. Ważną lekcją jest to, że do ujawnienia czegoś, co Ty lub Twoja firma wolelibyście zachować w tajemnicy, wystarczy jedna osoba; za pomocą Wikimapii lub podobnego narzędzia mogą podzielić się nią ze światem. Obecnie obrazy są zbierane za pośrednictwem satelitów, załogowych statków powietrznych, bezzałogowych statków powietrznych, a nawet samochodów wyposażonych w kamery (patrz sekcja „Widok z poziomu ulicy”). W przyszłości zobaczymy obrazy zebrane z praktycznie każdej platformy, jaką możesz sobie wyobrazić, i możesz oczekiwać, że rozdzielczość obrazów znacznie wzrośnie wraz z poprawą technologii czujników. Wygląda na to, że żyjemy w stale rosnącej siatce nadzoru. Praktycznie każdy nowoczesny telefon komórkowy ma wbudowany aparat, a wiele telefonów ma również wbudowany GPS. Połączenie tych dwóch doprowadziło do powstania geotagowania, czyli osadzania informacji geograficznych w różnych formach mediów. Witryny takie jak flickr.com umożliwiają teraz łatwe publikowanie zdjęć z geotagami. Obserwujemy również znaczny wzrost liczby rządowych i komercyjnych kamer monitorujących, takich jak brytyjscy strażnicy ruchu, którzy zostali wydani zamontowane kamery wideo i plany stworzenia zasłony zabezpieczającej czytniki tablic rejestracyjnych oraz ponad 3000 publicznych i prywatnych kamer wideo obejmujących centrum Nowego Jorku.

Zaufanie w Cyberspace : Rozwiązania w zakresie egzekwowania zasad po stronie użytkownika

Zaproponowano podejścia oparte na przesunięciu wymuszania zasad dostępu po stronie klienta w celu przezwyciężenia ograniczeń wymuszania zasad po stronie właściciela. Podejścia do przetwarzania zapytań koncentrujące się na egzekwowaniu zasad dostępu po stronie klienta wymagają etapu przetwarzania offline, w którym identyfikowane są zestawy danych, do których ma dostęp każdy użytkownik, a dokładniej profil użytkownika. Odpowiedni klucz jest następnie używany do szyfrowania każdego zestawu danych przed jego outsourcingiem. Na koniec każdy użytkownik otrzymuje zestaw kluczy umożliwiających dostęp do zbiorów danych zgodnie z jego / jej uprawnieniami. W tym przypadku zadaniem właściciela danych jest zidentyfikowanie zestawu kluczy niezbędnych każdemu użytkownikowi lub grupie w celu uzyskania dostępu do danych, do przeglądania których mają uprawnienia. Główną zaletą tego pomysłu jest to, że właściciel danych nie jest bezpośrednio zaangażowany, gdy użytkownik pyta o zaszyfrowaną bazę danych. Egzekwowanie kontroli dostępu na poziomie użytkownika napotyka dwa główne problemy: (1) określenie zestawu kluczy i (2) ich wydajne generowanie. Każdy użytkownik może uzyskiwać dostęp do kilku zestawów danych, które same mogą przecinać się z zestawami innych użytkowników, którzy wymagają, aby zestawy danych były podzielone na nieprzecinające się zestawy danych, co zwiększa złożoność. Ponadto algorytm generowania kluczy musi być tak prosty, jak to tylko możliwe, aby był skalowalny w praktyce i elastyczny, aby można go było dostosowywać do częstych zmian praw dostępu użytkownika. Poniższe rozwiązania proponowane do wymuszania zasad po stronie użytkownika próbują rozwiązać te problemy.

Ciemna Strona Neta : Podwójne życie technologii

Jeśli istnieje nadrzędny temat współczesnej technologii, to jest nim to, że przeciwstawia się ona oczekiwaniom jej twórców, przyjmując funkcje i role, które nigdy nie były zamierzone podczas tworzenia. David Noble, płodny historyk nowoczesnej technologii, podkreśla to mocno w swojej książce Forces of Production z 1984 roku. „Technologia”, pisze Noble, „prowadzi podwójne życie, jedno, które jest zgodne z intencjami projektantów i interesów władzy, a drugie, które im zaprzecza – idąc za plecami ich architektów, przynosząc niezamierzone konsekwencje i niezamierzone możliwości”. Nawet Ithiel de Sola Pool, naiwny wierzący w moc informacji podważającej autorytaryzm, był świadomy, że sama technologia nie wystarczy do osiągnięcia pożądanych rezultatów politycznych, pisząc, że „technologia kształtuje strukturę bitwy, ale nie każdy jej wynik”. Nic dziwnego, że futuryści często się mylą. George Wise, historyk związany z General Electric, przeanalizował półtora tysiąca prognoz technologicznych sporządzonych między 1890 a 1940 rokiem przez inżynierów, historyków i innych naukowców. Jedna trzecia tych przewidywań sprawdziła się, nawet jeśli była nieco ogólnikowa. Pozostałe dwie trzecie były fałszywe lub pozostawały niejasne. Z politycznego punktu widzenia lekcja, jaką należy wyciągnąć z historii technologii i licznych prób jej przepowiedzenia, jest taka, że ​​niewiele nowoczesnych technologii jest wystarczająco stabilnych – pod względem projektu, zastosowania, odwołania do społeczeństwa – aby zapewnić bezbłędne planowanie polityki. Dzieje się tak zwłaszcza na wczesnych etapach cyklu życia technologii. Każdy, kto pracowałby nad polityką „wolności radiowej” w latach dwudziestych XX wieku, byłby bardzo zaskoczony rozwojem – wiele z nich negatywnych – z lat trzydziestych XX wieku. Problem z dzisiejszym Internetem polega na tym, że jest on raczej kiepskim towarzyszem dla osoby zajmującej się planowaniem polityki. Zaangażowanych jest zbyt wielu interesariuszy, od rządów krajowych po organizacje międzynarodowe, takie jak ICANN, i od ONZ po użytkowników usług internetowych; niektóre techniczne elementy jego architektury mogą ulec zmianie, jeśli zabraknie mu adresów; złośliwe siły, takie jak spamerzy i cyberprzestępcy, nieustannie tworzą własne innowacje. Przewidywanie przyszłości Internetu jest procesem naznaczonym znacznie większą złożonością niż przewidywanie przyszłości telewizji, ponieważ Internet jest technologią, którą można wykorzystać do wielu różnych zastosowań za tak niską cenę. Jest to tak nieprzewidywalnie istotne, że powinno wzbudzić wyjątkowo podejrzliwe podejście do ambitnych, a jednocześnie całkowicie niejednoznacznych inicjatyw politycznych, takich jak wolność w Internecie, które wymagają pewnego stopnia stabilności i dojrzałości, którego Internet po prostu nie ma, podczas gdy ich zwolennicy formułują normatywne twierdzenia dotyczące tego, co powinien on mieć. wyglądają tak, jakby już wiedzieli, jak rozwiązać wszystkie problemy. Ale niesforne narzędzie w rękach zbyt pewnych siebie ludzi to przepis na katastrofę. O wiele bardziej produktywne byłoby założenie, że Internet jest wysoce niestabilny; że próba przebudowania własnej polityki wokół narzędzia, które jest tak złożone i kapryśne, nie zadziała; i że zamiast próbować rozwiązać to, co w zasadzie może być nierozwiązywalnymi globalnymi problemami, dobrze byłoby zacząć od nieco mniejszej skali, w której można by nadal uchwycić, jeśli nie w pełni opanować, powiązania między narzędziem a jego otoczeniem. Ale taka ostrożność może odpowiadać tylko intelektualistom. Pomimo nieuniknionej niepewności związanej z technologią, decydenci muszą podejmować decyzje, a technologia odgrywa w nich coraz większą rolę. Przewidywania dotyczące tego, jak może działać technologia, są zatem nieuniknione, w przeciwnym razie nastąpiłby paraliż. Najlepsze, co mogą zrobić decydenci, to zrozumieć, dlaczego tak wielu ludzi tak często się myli, a następnie spróbować stworzyć mechanizmy i procedury, które mogłyby skutecznie wyeliminować nadmierny szum z procesu decyzyjnego. Największym problemem związanym z większością prognoz dotyczących technologii jest to, że niezmiennie opierają się one na tym, jak świat funkcjonuje dzisiaj, a nie na tym, jak będzie działać jutro. Ale świat, jak wiemy, nie stoi w miejscu: polityka, ekonomia i kultura nieustannie zmieniają środowisko, które technologie miały zmienić, najlepiej zgodnie z naszymi przewidywaniami. Polityka, ekonomia i kultura również głęboko przekształcają same technologie. Niektóre, jak radio, stają się tanie i wszechobecne; inne, takie jak samolot, stają się drogie i dostępne tylko dla nielicznych. Co więcej, wraz z pojawieniem się nowych technologii niektóre starsze stają się przestarzałe (faksy) lub znajdują nowe zastosowania (telewizory jako rekwizyty do grania w gry na Wii).

Paradoksalnie, technologie mające na celu złagodzenie konkretnego problemu mogą w rzeczywistości go pogorszyć. Jako Ruth Schwartz Cowan, historyk nauki z University of Pennsylvania, pokazuje w swojej książce MoreWork for Mother, po 1870 roku gospodynie domowe pracowały dłużej, mimo że coraz więcej czynności domowych było zmechanizowanych. (Cowan zauważa, że ​​w 1950 r. Amerykańska gospodyni domowa samodzielnie wyprodukowała to, czego jej odpowiednik potrzebował trzech lub czterech pracowników zaledwie sto lat wcześniej). Kto mógł przewidzieć, że rozwój „urządzeń oszczędzających pracę” wpłynął na zwiększenie obciążenia prac domowych dla większości kobiet? Podobnie, wprowadzenie komputerów do siły roboczej nie przyniosło oczekiwanego wzrostu wydajności (Tetris był być może częścią jakiegoś tajnego sowieckiego spisku mającego na celu powstrzymanie kapitalistycznej gospodarki). Zdobywca nagrody Nobla ekonomista Robert Solow zażartował, że „erę komputerów można zobaczyć wszędzie, ale nie w statystykach produktywności!” Częścią problemu z przewidywaniem dokładnych skutków ekonomicznych i społecznych technologii jest niepewność związana ze skalą, w jakiej taka technologia byłaby stosowana. Pierwsze samochody zostały uznane za technologie, które mogą uczynić miasta czystszymi, wyzwalając je od obornika końskiego. Produkty uboczne silnika spalinowego mogą być smaczniejsze niż obornik, ale biorąc pod uwagę wszechobecność samochodów w dzisiejszym świecie, rozwiązały one jeden problem tylko poprzez spowodowanie innego zanieczyszczenia – znacznie gorszego. Innymi słowy, przyszłe zastosowania określonej technologii można często opisać za pomocą starego porzekadła „To ekonomia, głupcze”. William Galston, były doradca prezydenta Clintona i badacz polityki publicznej w Brookings Institution, podał mocny przykład tego, jak często nie doceniamy siły sił ekonomicznych w warunkowaniu społecznego wpływu technologii. Wyobraź sobie, mówi, hipotetyczną konferencję naukową na temat społecznych skutków telewizji, zwołaną na początku lat pięćdziesiątych. Konsensus na konferencji prawie na pewno byłby taki, że telewizja jest gotowa do wzmocnienia więzi społecznych i pomnażania kapitału społecznego. Telewizory były rzadkie i drogie, a sąsiedzi musieli dzielić się i odwiedzać swoje domy. Weź udział w dzisiejszych konferencjach akademickich na temat telewizji, a uczestnicy będą prawdopodobnie żałować wszechobecnej „kultury sypialni”, w której dostępność wielu telewizorów w jednym domu jest postrzegana jako erozja więzi w rodzinach, a nie tylko w sąsiedztwie. Innym powodem, dla którego przyszłość danej technologii jest tak trudna do przewidzenia, jest to, że zniknięciu jednego zestawu pośredników często towarzyszy pojawienie się innych pośredników. Jak zauważył James Carey, badacz mediów z Columbia University, „jako jeden zestaw granic, jeden zestaw struktur społecznych zostaje zburzony, inny zestaw granic zostaje wzniesiony. Łatwiej nam zobaczyć, jak znikają granice ”. Rzadko zauważamy, że powstają nowe. W 1914 roku Popular Mechanics myślał, że era rządów się skończyła, ogłaszając, że telegrafia bezprzewodowa pozwala „prywatnemu obywatelowi komunikować się na duże odległości bez pomocy rządu lub korporacji”. Jednak dopiero piętnaście lat później garstka korporacji zdominowała dziedzinę komunikacji radiowej, mimo że opinia publiczna wciąż miała złudzenia, że ​​radio jest wolnym i zdecentralizowanym mediami. (Fakt, że taniały radia, tylko przyczynił się do tych złudzeń). Podobnie, podobnie jak dzisiejsi guru Internetu próbują nas przekonać, że nadeszła era „wolnego”, prawie na pewno tak nie jest. Wszystkie te darmowe filmy z kotami, które otrzymują miliony odsłon na YouTube, są przechowywane na potężnych centrach serwerów, których uruchomienie kosztuje miliony dolarów, zwykle w postaci samych rachunków za prąd. Te ukryte koszty wcześniej czy później spowodują problemy środowiskowe, które boleśnie uświadomią nam, jak drogie są takie technologie. W 1990 roku kto mógł przewidzieć, że Greenpeace pewnego dnia opublikuje obszerny raport o środowiskowych konsekwencjach przetwarzania w chmurze, a niektórzy naukowcy przeprowadzą wieloletnie badania nad wpływem spamu e-mailowego na zmiany klimatu? Fakt, że nie możemy jeszcze obliczyć wszystkich kosztów danej technologii – czy to finansowych, moralnych czy środowiskowych – nie oznacza, że ​​jest ona darmowa.

Audyt Mózgu Hackera : Kontekst historyczny

Pod koniec 1979 r. mniej niż 1000 hostów było podłączonych do kilku dużych sieci komputerowych zwanych łącznie „Internetem”. Większość elementów krajowego Internetu w tym czasie łączyła się za pośrednictwem łączy dzierżawionych od różnych firm telefonicznych, przy czym AT&T była największym operatorem. AT&T cieszyła się niemal monopolem na usługi telefonii międzystrefowej przez prawie pół wieku w Stanach Zjednoczonych, ale ten status wkrótce się zmieni. W 1974 roku Departament Sprawiedliwości Stanów Zjednoczonych, któremu kilka firm oskarżyło telefonicznego giganta o praktyki monopolistyczne, złożył pozew antymonopolowy przeciwko AT&T za zachowania antykonkurencyjne, domagając się rozpadu Bell System. Po wielu latach przesłuchań i negocjacji obie strony ustaliły plan zbycia w 1982 r., Który wejdzie w życie 1 stycznia 1984 r. Ostatecznie zbycie otworzyło krajową konkurencję na odległość dla kilku firm, w tym MCI Communications i Sprint. We wczesnych latach siedemdziesiątych Federalna Komisja Łączności (FCC) udzieliła MCI pozwolenia na budowę i obsługę ograniczonej liczby łączy mikrofalowych niezależnych od tych obsługiwanych przez Bell System. Po zbyciu, mała sieć MCI rozrosła się do systemu od wybrzeża do wybrzeża, który konkurował bezpośrednio z długodystansowym systemem mikrofalowym AT&T. Inny pretendent do AT&T w latach 70., United Telecommunications Company, miał inne podejście. Zamiast budować łącza mikrofalowe, metodologia tej firmy polegała na zakopaniu tysięcy mil światłowodów, aby połączyć miasta w całych Stanach Zjednoczonych. Do 1980 roku United Telecommunications ustawił UNINET jako trzecią co do wielkości sieć komutacji pakietów na świecie i układał światłowody od wybrzeża do wybrzeża tak szybko, jak firma mogła uzyskać dostęp z prawem drogi. Po zbyciu, United Telecommunications uruchomił pierwszą krajową całkowicie światłowodową, w pełni cyfrową usługę telefonii dalekobieżnej w 1986 r. System był sprzedawany pod marką Sprint.

Bez szybkiej sieci szkieletowej Internet był skazany na stosunkowo niskie prędkości oferowane przez drut miedziany. rzędy wielkości wyższe niż to, co było możliwe w przypadku miedzi – były w zasięgu. Dostępność światłowodów w połączeniu z rosnącym zainteresowaniem komercyjnym nowymi sieciami danych przygotowała grunt pod ogromny rozwój Internetu w latach dziewięćdziesiątych. W połowie lat 80. brakowało „zabójczej aplikacji”, niezbędnego składnika niezbędnego do napędzania nadchodzącej eksplozji sieci. Naukowiec ze Szwajcarii wynalazł taką zabójczą aplikację w 1989 roku. Szukając sposobu na powiązanie dokumentów w wielu systemach i sieciach, Tim Berners-Lee zaproponował system „hipertekstu”, który ostatecznie dał początek temu, co obecnie nazywa się World Wide Web.

Lean Customer Development : Ile wywiadów potrzebujesz?

Krótka odpowiedź 1: to zależy.

Krótka odpowiedź 2: 15–20.

Nie jestem pewien, czy którakolwiek z tych krótkich odpowiedzi jest naprawdę pomocna, ale nie chciałbym, abyś przejrzał kilka następnych stron w poszukiwaniu prawdziwej odpowiedzi. Zacznijmy więc od tych odpowiedzi, a ja wyjaśnię więcej o tym, co napotkasz po drodze. Po dwóch wywiadach spójrz na swoje pytania i notatki i dostosuj rozmowę. Po pięciu wywiadach powinieneś był spotkać przynajmniej jedną podekscytowaną osobę. Po 10 wywiadach powinieneś zobaczyć wzorce w otrzymywanych odpowiedziach.

Ile wywiadów wystarczy?

Po wystarczającej liczbie wywiadów dowiesz się o tym. * Nie będziesz już słyszeć rzeczy, które Cię zaskakują. W następnych sekcjach rozwinę te odpowiedzi.

Po dwóch wywiadach: czy uczysz się tego, czego musisz się nauczyć?

Rozmawialiśmy o tym, jak po pierwszej rozmowie z klientem poświęcić kilka minut na ustalenie, które elementy okazały się najbardziej skuteczne. Najprawdopodobniej pierwsze zmiany, które wprowadziłeś w wywiadach, dotyczyły tonu i sposobu formułowania pytań. Po ukończeniu dwóch lub trzech wywiadów będziesz musiał dokonać bardziej krytycznej oceny. Czy uczysz się tego, czego musisz się nauczyć?

Ile Google wie o Tobie : Śledzenie ruchów za pomocą mashupów

Mashupy to potężna innowacja, która umożliwia użytkownikom wykreślanie praktycznie każdego rodzaju informacji z komponentem geograficznym w górnej części Map Google. Jak to elegancko ujął jeden z blogerów: „Teraz informacje w sieci nie muszą wiązać się tylko z tym, co i jak. Twoja informacja może również wskazywać, gdzie. Mashupy Google Maps zyskały na popularności i były wykorzystywane do wszystkiego, od lokalizowania kamer na światłach ulicznych i niedrogiego gazu po identyfikację lokalizacji UFO , Jednak mashupy łączą ogólną wrażliwość korzystania z usług mapowania z dwoma innymi ważnymi ujawnieniami. Pierwsza to zainteresowanie danym tematem, na przykład unikanie kamer na czerwonym świetle. Po drugie, mashupy identyfikują Twoją wizytę w danej witrynie internetowej. Zazwyczaj firma internetowa wie, czy odwiedzasz tylko jedną z jej witryn internetowych. Osadzając mapę na stronie internetowej innej firmy, Google może śledzić Twoją aktywność podczas przeskakiwania po takich witrynach.

Zaufanie w Cyberspace : Schemat szyfrowania zachowujący porządek

Szyfrowanie jest szeroko stosowaną techniką zapewniającą prywatność danych zlecanych na zewnątrz. Jednak po zaszyfrowaniu danych nie można już łatwo wyszukiwać na podstawie dokładnych dopasowań. Schemat szyfrowania z zachowaniem kolejności to schemat danych numerycznych, który umożliwia bezpośrednie zastosowanie dowolnej operacji porównania do zaszyfrowanych danych. Niepożądana jest również integracja istniejących technik szyfrowania z systemami baz danych

obniżenie wydajności, ponieważ obecne techniki szyfrowania nie zachowują porządku i dlatego nie można już używać indeksów bazy danych, takich jak B-drzewo. To sprawia, że ​​wykonywanie zapytań w zaszyfrowanych bazach danych jest niedopuszczalnie wolne. OPES umożliwia bezpośrednie stosowanie operacji porównania na zaszyfrowanych danych, bez odszyfrowywania operandów. Poniższe sekcje ilustrują podejście zastosowane przez technikę OPES, aby dojść do rozwiązania.

Założenia

(1) System przechowywania danych używany przez oprogramowanie bazy danych jest narażony na złamanie; (2) oprogramowanie bazy danych jest zaufane; (3) wszystkie dane na dysku są zaszyfrowane; oraz (4) baza danych składa się z pojedynczej tabeli zawierającej jedną kolumnę.

Proponowane OPES

Podstawową ideą OPES jest pobranie dostarczonej przez użytkownika dystrybucji docelowej jako danych wejściowych i przekształcenie wartości tekstu jawnego w taki sposób, aby transformacja zachowała kolejność, podczas gdy przekształcone wartości są zgodne z rozkładem docelowym. Wyniki eksperymentalne pokazują, że uruchamianie OPES w różnych rozkładach wejściowych daje taki sam rozkład docelowy.

Przegląd OPES

Podczas szyfrowania danej bazy danych P, OPES wykorzystuje wszystkie wartości tekstu jawnego aktualnie obecne w P, a także bazę danych wartości próbkowanych z dystrybucji docelowej. Na dysku przechowywana jest tylko zaszyfrowana baza danych C. Jednocześnie OPES tworzy również informacje pomocnicze K, których system bazy danych używa do odszyfrowania zakodowanych wartości lub zaszyfrowania nowych wartości. Zatem K zaszyfrowany przy użyciu konwencjonalnych technik szyfrowania pełni funkcję klucza szyfrowania.

Trzy etapy OPES

Etapy OPES obejmują (1) modelowanie dystrybucji danych wejściowych i docelowych, (2) spłaszczenie bazy danych w postaci zwykłego tekstu do płaskiej bazy danych oraz (3) przekształcenie płaskiej bazy danych w szyfrowaną bazę danych. Te etapy wyjaśniono w poniższych akapitach. Rozkłady wejściowy i docelowy są modelowane jako odcinkowo liniowe splajny. Na etapie spłaszczania baza danych P w postaci zwykłego tekstu jest przekształcana w „płaską” bazę danych F w taki sposób, że wartości w F są rozłożone równomiernie. Na etapie transformacji płaska baza danych F jest przekształcana w zaszyfrowaną bazę danych C w taki sposób, że wartości w C są dystrybuowane zgodnie z rozkładem docelowym.

Zalety. Uzyskane wyniki zapytań są dźwiękowe (brak fałszywych trafień) i kompletne (brak fałszywych spadków). Ta cecha OPES odróżnia ją od wcześniej omawianego schematu, który tworzy nadzbiór odpowiedzi, który wymaga filtrowania zbędnych krotek. Schemat wydajnie obsługuje aktualizacje, a nowe wartości można dodawać bez konieczności zmiany szyfrowania innych wartości. Standardowe indeksy bazy danych można budować na zaszyfrowanych tabelach i można je łatwo zintegrować z istniejącymi systemami baz danych. Szyfrowanie jest również odporne na szacowanie prawdziwych wartości zaszyfrowanych danych, w środowiskach, w których intruz może uzyskać dostęp do zaszyfrowanej bazy danych, ale nie ma pojęcia o domenie, takiej jak dystrybucja wartości, a zatem nie może szyfrować ani odszyfrować wybrane przez siebie wartości.

Ograniczenia. Proponowany schemat koncentruje się wyłącznie na opracowaniu technik szyfrowania z zachowaniem kolejności dla wartości liczbowych.

Ciemna Strona Neta : Tworzenie historii (coś więcej niż menu przeglądarki)

W 1996 roku, kiedy grupa znanych digerati trafiła na strony magazynu A Wired i ogłosiła, że ​​„publiczny plac przeszłości” został zastąpiony przez Internet, technologię, która „umożliwia przeciętnym obywatelom udział w dyskursie narodowym, publikowanie gazet, dystrybucję broszur elektronicznych na całym świecie… chroniąc jednocześnie ich prywatność” – zachichotało wielu historyków. Od kolei, które zdaniem Karola Marksa doprowadzą do rozwiązania indyjskiego systemu kastowego, po telewizję, największego wyzwoliciela mas, prawie nie pojawiła się technologia, która nie byłaby chwalona za jej zdolność do podniesienia poziomu debaty publicznej, wprowadzenia większej przejrzystości do polityka, zredukuj nacjonalizm i przenieś nas do mitycznej globalnej wioski. Praktycznie we wszystkich przypadkach takie wielkie nadzieje zostały zmiażdżone przez brutalne siły polityki, kultury i ekonomii. Wydaje się, że technologie mają tendencję do zawyżania obietnic i niedostatecznej wydajności, przynajmniej w stosunku do początkowych obietnic. Nie oznacza to, że takie wynalazki nie miały żadnego wpływu na życie publiczne czy demokrację. Wręcz przeciwnie, często liczyły się one znacznie bardziej niż to, co mogli przewidzieć ich zwolennicy. Jednak efekty te były często sprzeczne z celami, do których dążyli ich wynalazcy. Technologie, które miały wzmocnić pozycję jednostki, wzmocniły dominację gigantycznych korporacji, podczas gdy technologie, które miały zwiększyć partycypację demokratyczną, stworzyły populację kanapowców. Nie oznacza to również, że takie technologie nigdy nie miały potencjału, aby poprawić kulturę polityczną lub uczynić zarządzanie bardziej przejrzystym; ich potencjał był ogromny. Niemniej jednak w większości przypadków został on zaprzepaszczony, ponieważ utopijne twierdzenia niezmiennie przywiązane do tych technologii wprowadzały w błąd decydentów, uniemożliwiając im podjęcie właściwych kroków w celu spełnienia tych wczesnych obietnic postępu. Zachwalając wyjątkowość Internetu, większość guru technologii ujawnia swoją historyczną ignorancję, ponieważ retoryka towarzysząca przepowiedniom o wcześniejszych technologiach była zwykle równie wzniosła jak dzisiejszy quasi-religijny dyskurs o sile Internetu. Nawet pobieżne spojrzenie na historię technologii pokazuje, jak szybko opinia publiczna mogła przejść od bezkrytycznego podziwu dla pewnych technologii do gorliwego biczowania wszystkiego, za czym się opowiadają. Jednak uznanie, że krytyka technologii jest tak stara, jak jej kult, nie powinno prowadzić decydentów do wniosku, że próby zminimalizowania negatywnych skutków technologii dla społeczeństwa (i vice versa) są daremne. Zamiast tego, decydenci muszą zapoznać się z historią technologii, aby ocenić, kiedy przesadzone twierdzenia o potencjale technologii mogą wymagać dokładniejszej analizy – choćby po to, aby przynajmniej połowa z nich została zrealizowana. A historia zawiera wiele interesujących lekcji. Telegraf był pierwszą technologią, która według przewidywań przekształciła świat w globalną wioskę. Artykuł redakcyjny z 1858 r. W New Englander ogłosił: „Telegraf łączy ze sobą żywy sznur wszystkie narody ziemi. . . . Niemożliwe jest, aby dawne uprzedzenia i wrogość istniały dłużej, podczas gdy taki instrument został stworzony do wymiany myśli między wszystkimi narodami ziemi ”. Przemawiając w 1868 r. Edward Thornton, ambasador brytyjski w Stanach Zjednoczonych, okrzyknął telegraf „nerwem życia międzynarodowego, przekazującym wiedzę o wydarzeniach, usuwającym przyczyny nieporozumień oraz promującym pokój i harmonię na całym świecie”. Biuletyn Amerykańskiego Towarzystwa Geograficznego i Statystycznego uważał, że jest to „rozszerzenie wiedzy, cywilizacji i prawdy”, które zaspokaja „najwyższe i najdroższe interesy rasy ludzkiej”. Wkrótce opinia publiczna dostrzegła wady telegrafu. Ci, którzy chwalili jego moc pomagania w znajdowaniu zbiegłych przestępców, wkrótce musieli przyznać, że może być również używany do rozpowszechniania fałszywych alarmów i używany przez samych przestępców. Być może to poczucie gorzkiego rozczarowania skłoniło Charleston Courier do stwierdzenia, zaledwie dwa lata po pomyślnym zainstalowaniu pierwszych amerykańskich linii telegraficznych, że „im szybciej [telegraficzne] stanowiska zostaną usunięte, tym lepiej”, podczas gdy New Orleans Commercial Times wyraził „najbardziej żarliwe życzenie, aby telegraf nigdy nie zbliżył się do nas bliżej niż obecnie”. Zwięzłość przekazów telegraficznych również nie odpowiadała wielu intelektualistom literackim; Być może otworzył dostęp do większej liczby źródeł informacji, ale także znacznie spłycił dyskurs publiczny. Ponad sto lat przed postawieniem podobnych zarzutów Twitterowi elity kulturowe wiktoriańskiej Wielkiej Brytanii martwiły się banalizacją publicznego dyskursu pod lawiną szybkich wiadomości i „urywków”.  W 1889 roku Spectator, jedna z najwspanialszych publikacji imperium, zbeształa telegraf za spowodowanie „szerokiego rozpowszechnienia tego, co nazywamy wiadomościami”, rejestrowania każdego wydarzenia, a zwłaszcza każdej zbrodni, wszędzie bez zauważalnych odstępów czasu. Nieustanne rozpowszechnianie wypowiedzi we fragmentach. musi w końcu, można by pomyśleć, pogarszają inteligencję wszystkich, do których apeluje telegraf ”. Globalna wioska, którą zbudował telegraf, nie była pozbawiona wad i wyzysku. Przynajmniej jeden współczesny obserwator brytyjskiej ekspansji kolonialnej w Indiach zauważył, że „jedność uczuć i działań, które konstytuują imperializm, nie byłaby możliwa bez telegrafu”. Thomas Misa, historyk technologii z University of Minnesota, zauważa, że ​​„linie telegraficzne były tak ważne dla komunikacji imperialnej, że w Indiach budowano je przed kolejami”. Do ekspansjonizmu przyczyniło się wiele innych innowacji technologicznych poza telegrafem. Utopijne opisy wyzwalającej roli technologii w historii ludzkości rzadko uwzględniają fakt, że to odkrycie chininy, która pomogła w walce z malarią, zmniejszając ryzyko endemicznej choroby tropikalnej, wyeliminowało jedną główną barierę dla kolonializmu lub że wynalezienie druku pomogło wykuć wspólną hiszpańską tożsamość i zmusić Hiszpanów do kolonizacji Ameryki Łacińskiej. Kiedy telegraf nie przyniósł oczekiwanych efektów społecznych, wszyscy zwrócili uwagę na samolot. Joseph Corn opisuje zbiorową egzaltację, która towarzyszyła pojawieniu się samolotu w swojej książce The Winged Gospel z 2002 roku. XX wieku większość ludzi „oczekiwała, że ​​samolot będzie sprzyjał demokracji, równości i wolności, poprawi gust publiczny i szerzy kulturę, oczyści świat z wojen i przemocy; a nawet dać początek nowemu rodzajowi człowieka ”. Jeden z obserwatorów w tym czasie, najwyraźniej nieświadomy ekonomicznych sił globalnego kapitalizmu, stwierdził, że samoloty otwierają „królestwo absolutnej wolności; żadnych utworów, żadnych franczyz, nie potrzeba tysięcy pracowników, aby zwiększać koszty ”, podczas gdy w 1915 roku redaktor magazynu Flying – The Wired swojego dnia – entuzjastycznie ogłosił że pierwsza wojna światowa musiała być „ostatnią wielką wojną w historii”, ponieważ „za mniej niż kolejną dekadę” samolot musiałby wyeliminować czynniki odpowiedzialne za wojny i zapoczątkował „nowy okres w stosunkach międzyludzkich” (najwyraźniej Adolf Hitler nie był abonentem Flying). O ile można mówić o utopijnym centralizmie lotniczym lat 1910, to było to. Najwięcej niespełnionych oczekiwań wywołał jednak wynalazek radia. Jej pionierzy wnieśli swój wkład, aby wyolbrzymiać potencjał demokratyzacyjny ich wynalazku. Guglielmo Marconi, jeden z ojców tej rewolucyjnej technologii, uważał, że „nadejście ery bezprzewodowej uniemożliwi wojnę, ponieważ uczyni ją śmieszną”. Gerald Swope, prezes General Electric Company, jednego z największych komercyjnych sponsorów radia w tym czasie, był równie optymistyczny w 1921 roku, wychwalając tę ​​technologię jako „środek do ogólnego i wiecznego pokoju na ziemi”. Ani Marconi, ani Swope nie mogli przewidzieć, że siedem dekad później dwie lokalne stacje radiowe wykorzystają te fale do zaostrzenia napięć etnicznych, rozpowszechniania wiadomości nienawiści i wspomagania ludobójstwa w Rwandzie. Kiedy założyciele Twittera ogłaszają swoją stronę „triumfem ludzkości”, tak jak to zrobili w 2009 roku, opinia publiczna powinna zachować oklaski do czasu oceny możliwości ludobójstwa napędzanego przez Twittera, który przetoczy się przez jakiś odległy obcy kraj, tysiące mil od Obszar zatoki. Wtedy i teraz takie deklaracje łagodnej wszechmocy technologii były niczym innym jak słabo zawoalowanymi próbami stworzenia korzystnego klimatu regulacyjnego – a kto odważyłby się regulować triumf ludzkości? Ale na najwcześniejszych etapach swojej historii radio było również postrzegane jako sposób na edukowanie opinii publicznej o polityce i podniesienie poziomu dyskursu politycznego; powszechnie oczekiwano, że zmusi polityków do starannego planowania swoich przemówień. Na początku lat dwudziestych Nowa Republika pochwaliła polityczne skutki radia, ponieważ wynalazek „znalazł sposób na pozbycie się politycznych pośredników”, a nawet „przywrócił dema, na których opiera się republikański rząd”. Nic dziwnego, że radio było postrzegane jako lepsze od poprzedniego środka komunikacji politycznej, gazety. Jak ujął to jeden z redaktorów w 1924 r .: „Niech ustawodawca zaangażuje się w jakąś politykę, która jest oczywiście bezsensowna, a redaktorzy muszą najpierw ogłosić głupota dla społeczności. Ale niech radiofon w salach legislacyjnych przyszłości wyrzuci jego absurdy w przestrzeń, a całe państwo natychmiast je usłyszy ”. Tak jak dzisiejszym politykom mówi się, że mają bać się swojej „chwili Macaca”, tak wcześni politycy mieli bać się swojej „chwili radiowej”. Uważano, że podobnie jak dzisiejszy Internet, radio zmienia charakter stosunków politycznych między obywatelami a ich rządami. W 1928 roku magazyn Colliers oświadczył, że „właściwie używane radio zrobi więcej dla rządów ludowych, które toczą większość wojen o wolność i samorządność”, dodając, że „dzięki radiu polityka jest osobista i interesująca, a zatem ważna”. Jednak nastroje społeczne znów się pogorszyły. W 1930 roku nawet początkowo optymistyczna Nowa Republika doszła do werdyktu, że „ogólnie rzecz biorąc, radio w Ameryce będzie się marnować”. W 1942 roku Paul Lazarsfeld, wybitny badacz komunikacji z Columbia University, stwierdził, że „ogólnie rzecz biorąc, radio było dotychczas konserwatywną siłą w Ameryce e i przyniosło tylko kilka elementów postępu społecznego ”. Rozczarowanie było spowodowane wieloma czynnikami, w szczególności wątpliwymi zastosowaniami, w jakich technologia została wykorzystana przez rządy. Jak podkreślają Asa Briggs i Peter Burke w swojej obszernej A Social History of the Media, „era radia” to nie tylko wiek Roosevelta i Churchilla, ale także Hitlera, Mussoliniego i Stalina ”. Fakt, że tak wielu dyktatorów czerpało tak duże korzyści z radia, stłumił niemal powszechny entuzjazm dla tego medium, a jego komercjalizacja przez wielki biznes zraziła tych, którzy mieli nadzieję, że uczyni to publiczną rozmowę poważniejszą. Nietrudno zgadnąć reakcję Lazarsfelda na erę Rush Limbaugh. Zanikający potencjał demokratyzacyjny radia nie wykluczał nowego pokolenia ekspertów, naukowców i przedsiębiorców przed wygłaszaniem równie przesadnych twierdzeń na temat telewizji. Od lat dwudziestych Orrin Dunlap, jeden z pierwszych krytyków telewizyjnych i radiowych New York Times, przedstawiał argumentację znaną już tym, którzy studiowali historię telegrafu, samolotu czy radia. „Telewizja”, napisał Dunlap, bez cienia wątpliwości, „zapoczątkuje nową erę przyjaznych stosunków między narodami ziemi”, podczas gdy „obecne koncepcje obcych krajów ulegną zmianie”. David Sarnoff, kierownik z Radio Corporation of America uważał, że powstaje kolejna globalna wioska: „Kiedy telewizja spełni swoje ostateczne przeznaczenie. . . z tym może nadejść. . . nowe poczucie wolności i. . . lepsze i szersze porozumienie między wszystkimi narodami świata ”.

Lee De Forest, słynny amerykański wynalazca, pokładał duże nadzieje w edukacyjnym potencjale telewizji, wierząc, że może ona nawet zmniejszyć liczbę wypadków drogowych. „Czy możemy sobie wyobrazić”, zapytał w 1928 roku, „skuteczniejszy sposób na nauczenie społeczeństwa sztuki ostrożnej jazdy po naszych autostradach niż cotygodniowe przemówienie jakiegoś gorliwego policjanta, ilustrowane diagramami i zdjęciami?” To, że takie programy nigdy nie trafiły do ​​głównego nurtu amerykańskiej telewizji, jest niefortunne – zwłaszcza w czasach, gdy kierowcy wysyłają SMS-y do wypadków, a nawet piloci samolotów pracują na swoich laptopach w trakcie lotu – ale to nie ograniczenia technologii są winne. . To raczej ograniczenia ówczesnego dyskursu politycznego, kulturowego i regulacyjnego sprawiły, że duża część amerykańskiej telewizji stała się, jak to określił w 1961 roku przewodniczący Federalnej Komisji Łączności, Newton Minow, „rozległym pustkowiem”. Podobnie jak radio, telewizja miała radykalnie zmienić politykę tamtych czasów. W 1932 roku Theodore Roosevelt junior, syn nieżyjącego już prezydenta, a następnie generalnego gubernatora Filipin, przewidział, że telewizja „pobudzi naród do żywego zainteresowania tymi, którzy kierują jego polityką i samą polityką”, co skutkowałoby w „bardziej inteligentnym, bardziej skoordynowanym działaniu elektoratu; ludzie będą myśleć więcej za siebie, a mniej prosto pod kierownictwem lokalnych członków machiny politycznej ”. Thomas Dewey, wybitny republikanin, który w latach czterdziestych walczył z Franklinem Delano Rooseveltem i Harrym Trumanem, porównał telewizję do rentgena, przewidując, że „powinno to uczynić konstruktywny postęp w kampanii politycznej”. Każdy, kto oglądałby amerykańską telewizję podczas sezonu wyborczego, byłby wybaczony, gdyby nie zgadzał się z optymizmem Deweya. Taki entuzjazm do telewizji trwał do niedawna.

W 1978 roku Daniel Boorstin, jeden z najsłynniejszych amerykańskich historyków dwudziestego wieku, wychwalał moc telewizji w zakresie „rozwiązywania armii, do prezydentów kasjerów, w celu stworzenia zupełnie nowego demokratycznego świata – demokratycznego w sposób nigdy wcześniej nie wyobrażany, nawet w Ameryce”. Boorstin napisał te słowa, gdy wielu politologów i decydentów wciąż czekało na triumf „teledemokracji”, w której obywatele używaliby telewizji nie tylko do obserwacji, ale także do bezpośredniego udziału w polityce. (Nadzieja, że ​​nowa technologia umożliwi większy udział społeczeństwa w polityce, jest wcześniejsza niż telewizja; w 1940 roku Buckminster Fuller, kontrowersyjny amerykański wynalazca i architekt, wychwalał już zalety „telefonicznej demokracji”, która mogłaby umożliwić „głosowanie przez telefon na wszystkich znanych pytania przed Kongresem. ”) Z perspektywy czasu, pisarz science-fiction Ray Bradbury był bliżej prawdy w 1953 roku niż Boorstin kiedykolwiek w 1978 roku.„ Telewizja ”, napisał Bradbury,„ to ta podstępna bestia, ta Meduza, która zamraża miliard ludzie co noc kamienowali, wpatrując się w nie, tę Syrenę, która wołała, śpiewała i obiecywała tak wiele, a mimo wszystko dawała tak mało. Pojawienie się komputera wywołało kolejny utopijny szał. Artykuł z 1950 roku w Saturday Evening Post stwierdził, że „myślące maszyny przyniosą zdrowszą i szczęśliwszą cywilizację niż jakakolwiek znana dotąd”. Nadal żyjemy w czasach niektórych z jej najbardziej absurdalnych przepowiedni. I choć z perspektywy czasu łatwo jest mieć rację, należy pamiętać, że nie było z góry ustalonego kierunku, w jakim rozwijało się radio i telewizja w ostatnim stuleciu. Brytyjczycy podjęli kluczową strategiczną decyzję, aby nadać priorytet publicznym transmisjom i stworzyli potwora znanego jako British Broadcasting Corporation; Amerykanie z wielu powodów kulturowych i biznesowych przyjęli bardziej leseferystyczne podejście. Można by dyskutować o zaletach obu strategii, ale wydaje się niezaprzeczalne, że krajobraz mediów amerykańskich mógł wyglądać dzisiaj zupełnie inaczej, zwłaszcza gdyby utopijne ideologie promowane przez tych, którzy są zainteresowani tym biznesem, zostały nieco dokładniej zbadane. Choć kusi, by zapomnieć o wszystkim, czego nauczyliśmy się z historii i traktować Internet jako zupełnie nową bestię, powinniśmy pamiętać, że tak musiały się czuć również wcześniejsze pokolenia. Oni także byli kuszeni, by zlekceważyć gorzkie lekcje poprzednich rozczarowań i wejść w nowy, wspaniały świat. Najczęściej uniemożliwiało im to podejmowanie właściwych decyzji regulacyjnych dotyczących nowych technologii. W końcu trudno jest regulować boskość. Ironia polega na tym, że internet, choć nigdy nie spełnił uberutopijnych obietnic świata bez nacjonalizmu i ekstremizmu, dostarczył więcej, niż mogli sobie życzyć nawet najbardziej radykalni optymiści. Ryzyko polega na tym, że biorąc pod uwagę względne sukcesy tej młodej technologii, niektórzy mogą założyć, że najlepiej byłoby zostawić ją w spokoju, zamiast poddawać ją jakiejkolwiek regulacji. To jest błędny pogląd. Uznanie rewolucyjnego charakteru technologii jest kiepską wymówką, aby jej nie regulować. Inteligentne regulacje, jeśli w ogóle, są pierwszą oznaką, że społeczeństwo poważnie podchodzi do danej technologii i wierzy, że zostanie ona przyjęta; że chętnie zastanawia się nad konsekwencjami; i że chce znaleźć sposoby, aby uwolnić i wykorzystać swój rewolucyjny potencjał. Żadne społeczeństwo nigdy nie stworzyło odpowiednich ram regulacyjnych, patrząc tylko na mocne strony technologii i odmawiając zbadania, w jaki sposób jej zastosowania mogą również powodować skutki szkodliwe dla społeczeństwa. Problem z cyberoptymizmem polega na tym, że po prostu nie dostarcza on użytecznych intelektualnych podstaw do jakichkolwiek regulacji. Jeśli wszystko jest takie różowe, po co w ogóle zawracać sobie głowę regulacją? Taki sprzeciw mógł być słuszny na początku lat 90., kiedy dostęp do Internetu był ograniczony do naukowców, którzy nie mogli przewidzieć, dlaczego ktokolwiek miałby chcieć wysyłać spam. Ponieważ jednak dostęp do Internetu został zdemokratyzowany, stało się oczywiste, że samoregulacja nie zawsze będzie możliwa, biorąc pod uwagę tak różnorodny zestaw użytkowników i zastosowań.

Audyt Mózgu Hackera : Cyberprzestępca w grupach – atak na krytyczne infrastruktury narodów

Infrastruktura krytyczna to istotny zasób lub system fizyczny lub cybernetyczny, którego zniszczenie mogłoby zdestabilizować gospodarkę narodową lub styl życia albo zagrozić bezpieczeństwu narodowemu. Niektóre przykłady takich infrastruktur to sieci energetyczne, systemy transportowe, sieci telekomunikacyjne, służby ratownicze, placówki opieki zdrowotnej i organizacje rządowe. We współczesnym, silnie połączonym świecie infrastruktura krytyczna danego kraju zależy od niezawodności dwóch kluczowych systemów, które są również uważane za infrastruktury krytyczne: sieci elektroenergetycznej i sieci komunikacyjnych. Ataki na którykolwiek z tych systemów mogą potencjalnie wywołać efekt falowania w innych infrastrukturach, a w najgorszym przypadku mogą doprowadzić do zapaści gospodarczej kraju. Na szczęście zarówno sieć elektroenergetyczna, jak i sieci komunikacyjne w Stanach Zjednoczonych są obecnie bardzo dojrzałe, mając swoje korzenie w XIX wieku. W obu przypadkach istnieją nadmiarowości i kopie zapasowe, aby zapewnić ich niezawodne działanie w najgorszych katastrofach. W Stanach Zjednoczonych i większości innych krajów rząd federalny reguluje te branże i zapewnia finansowanie systemów bezpieczeństwa, zdolności przeciwprzepięciowej i możliwości tworzenia kopii zapasowych. Względnie nowy w społeczności infrastruktury jest globalny Internet, ogromna „sieć sieci”, która powstała z luźnego zbioru akademickich, prywatnych, wojskowych i rządowych sieci komputerowych w latach 70. i 80. XX wieku. W ciągu niecałych 20 lat Internet rozrósł się z mniej niż 10 000 hostów do dziesiątek milionów hostów na całym świecie. W udokumentowanej historii ludzkości nigdy nie było tak gwałtownego rozwoju nowej metody komunikacji. Zależność infrastruktury krytycznej od Internetu rośnie z roku na rok i w ciągu następnej dekady przewyższy zależność od tradycyjnego systemu telefonicznego. Internet jest w dużej mierze nieuregulowany, kontrolowany przez zasady, które bardziej przypominają wytyczne techniczne niż sztywne prawa i umowy egzekwowane przez rząd. Wiele standardów technicznych zostało napisanych na początku lat siedemdziesiątych XX wieku, kiedy liczba podłączonych komputerów wynosiła zaledwie setki, ale te standardy są nadal w znacznym stopniu w dzisiejszych czasach. Nie ma rządowych planów tworzenia kopii zapasowych, żadnych obowiązkowych funkcji bezpieczeństwa ani ograniczeń dotyczących kto może łączyć się z Internetem. Jedynym wymaganiem jest przestrzeganie przez użytkowników podstawowych wymagań technicznych określonych w dokumentach znanych jako Internet Requests for Comment lub RFC. Jednak producenci oprogramowania i sprzętu, rządy, przedsiębiorstwa prywatne i osoby fizyczne często naruszają nawet ten wymóg. Ze względu na rosnące uzależnienie infrastruktur krytycznych od Internetu w zakresie przepływu informacji i danych, narody są narażone na ryzyko wystąpienia ataków na bezpieczeństwo gospodarcze lub narodowe, których przejawem są ataki na sam Internet. Zagrożenia dla Internetu szybko rosną, a tempo opracowywania nowych metod wykrywania i zapobiegania tym zagrożeniom w czasie rzeczywistym rośnie bardzo wolno. Jak więc naród charakteryzuje te zagrożenia, aby się przed nimi zabezpieczyć, a tym samym zapewnić niezawodne działanie infrastruktury krytycznej? W jaki sposób gospodarka cyfrowa zbudowana na standardach, które są niczym więcej niż zwykłymi dżentelmeńskimi umowami, zapobiega temu, co wydaje się być pewnym kataklizmicznym wnioskiem? Czy potrzebny jest większy nadzór i regulacja ze strony rządu, czy też Internet ostatecznie samoreguluje się w procesie powszechnie nazywanym zarządzaniem branżą?

Aby odpowiedzieć na te pytania, dokonano przeglądu kilku znaczących wydarzeń z ostatniego ćwierćwiecza, które doprowadziły nas do obecnej sytuacji. Ponadto w rozdziale przyjrzymy się różnym typom zagrożeń, które znamy dzisiaj, a także przyszłym, które powoli stają się jasne, w miarę jak lepiej rozumiemy, co oznacza zjawisko internetowe.

Lean Customer Development : Zebranie zespołu wokół nowych informacji

Najlepszym sposobem zapewnienia, że ​​wysiłki związane z rozwojem klienta poprawią wysiłki związane z rozwojem produktu, jest maksymalizacja liczby osób w zespole, które rozmawiają z klientami. Osoby te w naturalny sposób wprowadzają wiedzę klientów do swoich codziennych decyzji dotyczących zakresu produktu, szczegółów wdrożenia, szczegółów projektu i marketingu. Rozmowy kwalifikacyjne w parach to cenna technika przyciągania większej liczby osób do świata klienta. Inną techniką jest zaproszenie dużej grupy osób do pomocy w kategoryzowaniu opinii klientów. W Yammerze zazwyczaj robimy to przy użyciu karteczek samoprzylepnych w dużej przestrzeni fizycznej. Wymaga to ponownego przepisania informacji zwrotnej, co zajmuje więcej czasu. Jednak poruszanie się po fizycznych karteczkach zachęca ludzi do dyskusji i reagowania na informacje zwrotne, a także pomaga im skuteczniej zapadać w pamięć. Jednak umysły nie zmieniają się natychmiast. Nawet jeśli ktoś widzi z pierwszej ręki, że jej założenia są unieważnione, potrzeba czasu i powtórzeń, aby zmienić te nowe informacje w korektę kursu. Twoim zadaniem jest pomóc zespołowi spojrzeć na świat oczami klienta i wprowadzić niezbędne zmiany, aby zachować koncentrację i uniknąć marnowania wysiłku. Oto kilka wskazówek, które pomogą Ci skutecznie dzielić się tym, czego się uczysz:

Sprzedawaj to, czego się uczysz

To, czego się uczysz, ma kluczowe znaczenie. Opowiadasz historię, która może uratować lub zniszczyć Twój produkt. Ważne jest, aby zdać sobie sprawę, jak ważne są te spostrzeżenia i odpowiednio je sformułować. Nie wysyłaj e-maili z nudnym tematem, np. „Podsumowanie rozmów z klientami”, chyba że chcesz, aby ludzie Cię wyłączyli.

Brakuje im kontekstu: dostarczają go

Jednym z największych wyzwań podczas raportowania zespołowi jest pamiętanie, że brakuje im kontekstu. Gdy usłyszysz, jak wielu klientów opowiada, jak się zachowują i w co wierzą, trudno sobie przypomnieć, że nie rozumieli ich sytuacji. Nie dotyczy to wyłącznie rozwoju klienta; wraca do klątwy wiedzy wspomnianej w rozdziale 5. Klątwa wiedzy zaślepia cię na świadomość, że musisz wyjaśnić każdy krok, który przybliżał cię do konkluzji. Dla osób, które nie brały udziału w rozmowie, nie jest od razu oczywiste, które komentarze, mowa ciała lub pytania są istotne.

Zachęcaj do pytań (nie przechodź do zaleceń) Zachęcaj do zadawania pytań i dyskusji. Przechodzenie bezpośrednio do zaleceń lub opinii skutecznie wyłącza Twój zespół z obiegu. Jeśli inni nie czują, że uczestniczą w rozwoju procesu klienta , mogą zacząć mu subtelnie opierać się. Pierwszy krok do zdobycia ludzi do udziału? Upewnij się, że słuchają.

Bądź tam, gdzie podejmowane są decyzje

Spostrzeżenia dotyczące rozwoju klienta powinny przekształcić się w działania i decyzje. Lepiej jest udostępniać informacje przez pięć minut podczas spotkania dotyczącego zakresu produktu lub ustalania priorytetów, niż organizować godzinne spotkanie, podczas którego ludzie słuchają i nikt nie podejmuje działań.

Skonfiguruj regularny harmonogram udostępniania zdobytej wiedzy.

Jak często powinno tak być? To zależy. Użyj częstotliwości, która jest odpowiednia dla rozmiaru i szybkości Twojej firmy. Powiem ci, co działało u mnie w różnych sytuacjach. W KISSmetrics zazwyczaj konsolidowałem i dzieliłem się opiniami na temat rozwoju klientów tuż przed naszymi cotygodniowymi spotkaniami dotyczącymi priorytetów produktów. W ciągu typowego tygodnia mogłem przeprowadzić 5–10 wywiadów, z których każdy podsumowałem w sposób opisany w poprzedniej sekcji. W Yammerze ci z nas, którzy zajmują się rozwojem klienta, przesyłają notatki z wywiadów do naszej wewnętrznej sieci Yammer, gdy tylko rozmowa zostanie zakończona. Każdy w zespole projektowym może natychmiast przeczytać notatki z wywiadów i zadawać pytania. Aby rozpowszechniać informacje między zespołami produktowymi, udostępniamy także podsumowania na comiesięcznym spotkaniu, aby omówić badania użytkowników i aktualizacje analiz. Te spotkania są bardziej konwersacyjne, dlatego przedstawiamy lekkie prezentacje slajdów z wystarczającą ilością informacji, aby zachęcić do rozmowy