Lean Customer Development : Ile wywiadów potrzebujesz?

Krótka odpowiedź 1: to zależy.

Krótka odpowiedź 2: 15–20.

Nie jestem pewien, czy którakolwiek z tych krótkich odpowiedzi jest naprawdę pomocna, ale nie chciałbym, abyś przejrzał kilka następnych stron w poszukiwaniu prawdziwej odpowiedzi. Zacznijmy więc od tych odpowiedzi, a ja wyjaśnię więcej o tym, co napotkasz po drodze. Po dwóch wywiadach spójrz na swoje pytania i notatki i dostosuj rozmowę. Po pięciu wywiadach powinieneś był spotkać przynajmniej jedną podekscytowaną osobę. Po 10 wywiadach powinieneś zobaczyć wzorce w otrzymywanych odpowiedziach.

Ile wywiadów wystarczy?

Po wystarczającej liczbie wywiadów dowiesz się o tym. * Nie będziesz już słyszeć rzeczy, które Cię zaskakują. W następnych sekcjach rozwinę te odpowiedzi.

Po dwóch wywiadach: czy uczysz się tego, czego musisz się nauczyć?

Rozmawialiśmy o tym, jak po pierwszej rozmowie z klientem poświęcić kilka minut na ustalenie, które elementy okazały się najbardziej skuteczne. Najprawdopodobniej pierwsze zmiany, które wprowadziłeś w wywiadach, dotyczyły tonu i sposobu formułowania pytań. Po ukończeniu dwóch lub trzech wywiadów będziesz musiał dokonać bardziej krytycznej oceny. Czy uczysz się tego, czego musisz się nauczyć?

Ile Google wie o Tobie : Śledzenie ruchów za pomocą mashupów

Mashupy to potężna innowacja, która umożliwia użytkownikom wykreślanie praktycznie każdego rodzaju informacji z komponentem geograficznym w górnej części Map Google. Jak to elegancko ujął jeden z blogerów: „Teraz informacje w sieci nie muszą wiązać się tylko z tym, co i jak. Twoja informacja może również wskazywać, gdzie. Mashupy Google Maps zyskały na popularności i były wykorzystywane do wszystkiego, od lokalizowania kamer na światłach ulicznych i niedrogiego gazu po identyfikację lokalizacji UFO , Jednak mashupy łączą ogólną wrażliwość korzystania z usług mapowania z dwoma innymi ważnymi ujawnieniami. Pierwsza to zainteresowanie danym tematem, na przykład unikanie kamer na czerwonym świetle. Po drugie, mashupy identyfikują Twoją wizytę w danej witrynie internetowej. Zazwyczaj firma internetowa wie, czy odwiedzasz tylko jedną z jej witryn internetowych. Osadzając mapę na stronie internetowej innej firmy, Google może śledzić Twoją aktywność podczas przeskakiwania po takich witrynach.

Zaufanie w Cyberspace : Schemat szyfrowania zachowujący porządek

Szyfrowanie jest szeroko stosowaną techniką zapewniającą prywatność danych zlecanych na zewnątrz. Jednak po zaszyfrowaniu danych nie można już łatwo wyszukiwać na podstawie dokładnych dopasowań. Schemat szyfrowania z zachowaniem kolejności to schemat danych numerycznych, który umożliwia bezpośrednie zastosowanie dowolnej operacji porównania do zaszyfrowanych danych. Niepożądana jest również integracja istniejących technik szyfrowania z systemami baz danych

obniżenie wydajności, ponieważ obecne techniki szyfrowania nie zachowują porządku i dlatego nie można już używać indeksów bazy danych, takich jak B-drzewo. To sprawia, że ​​wykonywanie zapytań w zaszyfrowanych bazach danych jest niedopuszczalnie wolne. OPES umożliwia bezpośrednie stosowanie operacji porównania na zaszyfrowanych danych, bez odszyfrowywania operandów. Poniższe sekcje ilustrują podejście zastosowane przez technikę OPES, aby dojść do rozwiązania.

Założenia

(1) System przechowywania danych używany przez oprogramowanie bazy danych jest narażony na złamanie; (2) oprogramowanie bazy danych jest zaufane; (3) wszystkie dane na dysku są zaszyfrowane; oraz (4) baza danych składa się z pojedynczej tabeli zawierającej jedną kolumnę.

Proponowane OPES

Podstawową ideą OPES jest pobranie dostarczonej przez użytkownika dystrybucji docelowej jako danych wejściowych i przekształcenie wartości tekstu jawnego w taki sposób, aby transformacja zachowała kolejność, podczas gdy przekształcone wartości są zgodne z rozkładem docelowym. Wyniki eksperymentalne pokazują, że uruchamianie OPES w różnych rozkładach wejściowych daje taki sam rozkład docelowy.

Przegląd OPES

Podczas szyfrowania danej bazy danych P, OPES wykorzystuje wszystkie wartości tekstu jawnego aktualnie obecne w P, a także bazę danych wartości próbkowanych z dystrybucji docelowej. Na dysku przechowywana jest tylko zaszyfrowana baza danych C. Jednocześnie OPES tworzy również informacje pomocnicze K, których system bazy danych używa do odszyfrowania zakodowanych wartości lub zaszyfrowania nowych wartości. Zatem K zaszyfrowany przy użyciu konwencjonalnych technik szyfrowania pełni funkcję klucza szyfrowania.

Trzy etapy OPES

Etapy OPES obejmują (1) modelowanie dystrybucji danych wejściowych i docelowych, (2) spłaszczenie bazy danych w postaci zwykłego tekstu do płaskiej bazy danych oraz (3) przekształcenie płaskiej bazy danych w szyfrowaną bazę danych. Te etapy wyjaśniono w poniższych akapitach. Rozkłady wejściowy i docelowy są modelowane jako odcinkowo liniowe splajny. Na etapie spłaszczania baza danych P w postaci zwykłego tekstu jest przekształcana w „płaską” bazę danych F w taki sposób, że wartości w F są rozłożone równomiernie. Na etapie transformacji płaska baza danych F jest przekształcana w zaszyfrowaną bazę danych C w taki sposób, że wartości w C są dystrybuowane zgodnie z rozkładem docelowym.

Zalety. Uzyskane wyniki zapytań są dźwiękowe (brak fałszywych trafień) i kompletne (brak fałszywych spadków). Ta cecha OPES odróżnia ją od wcześniej omawianego schematu, który tworzy nadzbiór odpowiedzi, który wymaga filtrowania zbędnych krotek. Schemat wydajnie obsługuje aktualizacje, a nowe wartości można dodawać bez konieczności zmiany szyfrowania innych wartości. Standardowe indeksy bazy danych można budować na zaszyfrowanych tabelach i można je łatwo zintegrować z istniejącymi systemami baz danych. Szyfrowanie jest również odporne na szacowanie prawdziwych wartości zaszyfrowanych danych, w środowiskach, w których intruz może uzyskać dostęp do zaszyfrowanej bazy danych, ale nie ma pojęcia o domenie, takiej jak dystrybucja wartości, a zatem nie może szyfrować ani odszyfrować wybrane przez siebie wartości.

Ograniczenia. Proponowany schemat koncentruje się wyłącznie na opracowaniu technik szyfrowania z zachowaniem kolejności dla wartości liczbowych.

Ciemna Strona Neta : Tworzenie historii (coś więcej niż menu przeglądarki)

W 1996 roku, kiedy grupa znanych digerati trafiła na strony magazynu A Wired i ogłosiła, że ​​„publiczny plac przeszłości” został zastąpiony przez Internet, technologię, która „umożliwia przeciętnym obywatelom udział w dyskursie narodowym, publikowanie gazet, dystrybucję broszur elektronicznych na całym świecie… chroniąc jednocześnie ich prywatność” – zachichotało wielu historyków. Od kolei, które zdaniem Karola Marksa doprowadzą do rozwiązania indyjskiego systemu kastowego, po telewizję, największego wyzwoliciela mas, prawie nie pojawiła się technologia, która nie byłaby chwalona za jej zdolność do podniesienia poziomu debaty publicznej, wprowadzenia większej przejrzystości do polityka, zredukuj nacjonalizm i przenieś nas do mitycznej globalnej wioski. Praktycznie we wszystkich przypadkach takie wielkie nadzieje zostały zmiażdżone przez brutalne siły polityki, kultury i ekonomii. Wydaje się, że technologie mają tendencję do zawyżania obietnic i niedostatecznej wydajności, przynajmniej w stosunku do początkowych obietnic. Nie oznacza to, że takie wynalazki nie miały żadnego wpływu na życie publiczne czy demokrację. Wręcz przeciwnie, często liczyły się one znacznie bardziej niż to, co mogli przewidzieć ich zwolennicy. Jednak efekty te były często sprzeczne z celami, do których dążyli ich wynalazcy. Technologie, które miały wzmocnić pozycję jednostki, wzmocniły dominację gigantycznych korporacji, podczas gdy technologie, które miały zwiększyć partycypację demokratyczną, stworzyły populację kanapowców. Nie oznacza to również, że takie technologie nigdy nie miały potencjału, aby poprawić kulturę polityczną lub uczynić zarządzanie bardziej przejrzystym; ich potencjał był ogromny. Niemniej jednak w większości przypadków został on zaprzepaszczony, ponieważ utopijne twierdzenia niezmiennie przywiązane do tych technologii wprowadzały w błąd decydentów, uniemożliwiając im podjęcie właściwych kroków w celu spełnienia tych wczesnych obietnic postępu. Zachwalając wyjątkowość Internetu, większość guru technologii ujawnia swoją historyczną ignorancję, ponieważ retoryka towarzysząca przepowiedniom o wcześniejszych technologiach była zwykle równie wzniosła jak dzisiejszy quasi-religijny dyskurs o sile Internetu. Nawet pobieżne spojrzenie na historię technologii pokazuje, jak szybko opinia publiczna mogła przejść od bezkrytycznego podziwu dla pewnych technologii do gorliwego biczowania wszystkiego, za czym się opowiadają. Jednak uznanie, że krytyka technologii jest tak stara, jak jej kult, nie powinno prowadzić decydentów do wniosku, że próby zminimalizowania negatywnych skutków technologii dla społeczeństwa (i vice versa) są daremne. Zamiast tego, decydenci muszą zapoznać się z historią technologii, aby ocenić, kiedy przesadzone twierdzenia o potencjale technologii mogą wymagać dokładniejszej analizy – choćby po to, aby przynajmniej połowa z nich została zrealizowana. A historia zawiera wiele interesujących lekcji. Telegraf był pierwszą technologią, która według przewidywań przekształciła świat w globalną wioskę. Artykuł redakcyjny z 1858 r. W New Englander ogłosił: „Telegraf łączy ze sobą żywy sznur wszystkie narody ziemi. . . . Niemożliwe jest, aby dawne uprzedzenia i wrogość istniały dłużej, podczas gdy taki instrument został stworzony do wymiany myśli między wszystkimi narodami ziemi ”. Przemawiając w 1868 r. Edward Thornton, ambasador brytyjski w Stanach Zjednoczonych, okrzyknął telegraf „nerwem życia międzynarodowego, przekazującym wiedzę o wydarzeniach, usuwającym przyczyny nieporozumień oraz promującym pokój i harmonię na całym świecie”. Biuletyn Amerykańskiego Towarzystwa Geograficznego i Statystycznego uważał, że jest to „rozszerzenie wiedzy, cywilizacji i prawdy”, które zaspokaja „najwyższe i najdroższe interesy rasy ludzkiej”. Wkrótce opinia publiczna dostrzegła wady telegrafu. Ci, którzy chwalili jego moc pomagania w znajdowaniu zbiegłych przestępców, wkrótce musieli przyznać, że może być również używany do rozpowszechniania fałszywych alarmów i używany przez samych przestępców. Być może to poczucie gorzkiego rozczarowania skłoniło Charleston Courier do stwierdzenia, zaledwie dwa lata po pomyślnym zainstalowaniu pierwszych amerykańskich linii telegraficznych, że „im szybciej [telegraficzne] stanowiska zostaną usunięte, tym lepiej”, podczas gdy New Orleans Commercial Times wyraził „najbardziej żarliwe życzenie, aby telegraf nigdy nie zbliżył się do nas bliżej niż obecnie”. Zwięzłość przekazów telegraficznych również nie odpowiadała wielu intelektualistom literackim; Być może otworzył dostęp do większej liczby źródeł informacji, ale także znacznie spłycił dyskurs publiczny. Ponad sto lat przed postawieniem podobnych zarzutów Twitterowi elity kulturowe wiktoriańskiej Wielkiej Brytanii martwiły się banalizacją publicznego dyskursu pod lawiną szybkich wiadomości i „urywków”.  W 1889 roku Spectator, jedna z najwspanialszych publikacji imperium, zbeształa telegraf za spowodowanie „szerokiego rozpowszechnienia tego, co nazywamy wiadomościami”, rejestrowania każdego wydarzenia, a zwłaszcza każdej zbrodni, wszędzie bez zauważalnych odstępów czasu. Nieustanne rozpowszechnianie wypowiedzi we fragmentach. musi w końcu, można by pomyśleć, pogarszają inteligencję wszystkich, do których apeluje telegraf ”. Globalna wioska, którą zbudował telegraf, nie była pozbawiona wad i wyzysku. Przynajmniej jeden współczesny obserwator brytyjskiej ekspansji kolonialnej w Indiach zauważył, że „jedność uczuć i działań, które konstytuują imperializm, nie byłaby możliwa bez telegrafu”. Thomas Misa, historyk technologii z University of Minnesota, zauważa, że ​​„linie telegraficzne były tak ważne dla komunikacji imperialnej, że w Indiach budowano je przed kolejami”. Do ekspansjonizmu przyczyniło się wiele innych innowacji technologicznych poza telegrafem. Utopijne opisy wyzwalającej roli technologii w historii ludzkości rzadko uwzględniają fakt, że to odkrycie chininy, która pomogła w walce z malarią, zmniejszając ryzyko endemicznej choroby tropikalnej, wyeliminowało jedną główną barierę dla kolonializmu lub że wynalezienie druku pomogło wykuć wspólną hiszpańską tożsamość i zmusić Hiszpanów do kolonizacji Ameryki Łacińskiej. Kiedy telegraf nie przyniósł oczekiwanych efektów społecznych, wszyscy zwrócili uwagę na samolot. Joseph Corn opisuje zbiorową egzaltację, która towarzyszyła pojawieniu się samolotu w swojej książce The Winged Gospel z 2002 roku. XX wieku większość ludzi „oczekiwała, że ​​samolot będzie sprzyjał demokracji, równości i wolności, poprawi gust publiczny i szerzy kulturę, oczyści świat z wojen i przemocy; a nawet dać początek nowemu rodzajowi człowieka ”. Jeden z obserwatorów w tym czasie, najwyraźniej nieświadomy ekonomicznych sił globalnego kapitalizmu, stwierdził, że samoloty otwierają „królestwo absolutnej wolności; żadnych utworów, żadnych franczyz, nie potrzeba tysięcy pracowników, aby zwiększać koszty ”, podczas gdy w 1915 roku redaktor magazynu Flying – The Wired swojego dnia – entuzjastycznie ogłosił że pierwsza wojna światowa musiała być „ostatnią wielką wojną w historii”, ponieważ „za mniej niż kolejną dekadę” samolot musiałby wyeliminować czynniki odpowiedzialne za wojny i zapoczątkował „nowy okres w stosunkach międzyludzkich” (najwyraźniej Adolf Hitler nie był abonentem Flying). O ile można mówić o utopijnym centralizmie lotniczym lat 1910, to było to. Najwięcej niespełnionych oczekiwań wywołał jednak wynalazek radia. Jej pionierzy wnieśli swój wkład, aby wyolbrzymiać potencjał demokratyzacyjny ich wynalazku. Guglielmo Marconi, jeden z ojców tej rewolucyjnej technologii, uważał, że „nadejście ery bezprzewodowej uniemożliwi wojnę, ponieważ uczyni ją śmieszną”. Gerald Swope, prezes General Electric Company, jednego z największych komercyjnych sponsorów radia w tym czasie, był równie optymistyczny w 1921 roku, wychwalając tę ​​technologię jako „środek do ogólnego i wiecznego pokoju na ziemi”. Ani Marconi, ani Swope nie mogli przewidzieć, że siedem dekad później dwie lokalne stacje radiowe wykorzystają te fale do zaostrzenia napięć etnicznych, rozpowszechniania wiadomości nienawiści i wspomagania ludobójstwa w Rwandzie. Kiedy założyciele Twittera ogłaszają swoją stronę „triumfem ludzkości”, tak jak to zrobili w 2009 roku, opinia publiczna powinna zachować oklaski do czasu oceny możliwości ludobójstwa napędzanego przez Twittera, który przetoczy się przez jakiś odległy obcy kraj, tysiące mil od Obszar zatoki. Wtedy i teraz takie deklaracje łagodnej wszechmocy technologii były niczym innym jak słabo zawoalowanymi próbami stworzenia korzystnego klimatu regulacyjnego – a kto odważyłby się regulować triumf ludzkości? Ale na najwcześniejszych etapach swojej historii radio było również postrzegane jako sposób na edukowanie opinii publicznej o polityce i podniesienie poziomu dyskursu politycznego; powszechnie oczekiwano, że zmusi polityków do starannego planowania swoich przemówień. Na początku lat dwudziestych Nowa Republika pochwaliła polityczne skutki radia, ponieważ wynalazek „znalazł sposób na pozbycie się politycznych pośredników”, a nawet „przywrócił dema, na których opiera się republikański rząd”. Nic dziwnego, że radio było postrzegane jako lepsze od poprzedniego środka komunikacji politycznej, gazety. Jak ujął to jeden z redaktorów w 1924 r .: „Niech ustawodawca zaangażuje się w jakąś politykę, która jest oczywiście bezsensowna, a redaktorzy muszą najpierw ogłosić głupota dla społeczności. Ale niech radiofon w salach legislacyjnych przyszłości wyrzuci jego absurdy w przestrzeń, a całe państwo natychmiast je usłyszy ”. Tak jak dzisiejszym politykom mówi się, że mają bać się swojej „chwili Macaca”, tak wcześni politycy mieli bać się swojej „chwili radiowej”. Uważano, że podobnie jak dzisiejszy Internet, radio zmienia charakter stosunków politycznych między obywatelami a ich rządami. W 1928 roku magazyn Colliers oświadczył, że „właściwie używane radio zrobi więcej dla rządów ludowych, które toczą większość wojen o wolność i samorządność”, dodając, że „dzięki radiu polityka jest osobista i interesująca, a zatem ważna”. Jednak nastroje społeczne znów się pogorszyły. W 1930 roku nawet początkowo optymistyczna Nowa Republika doszła do werdyktu, że „ogólnie rzecz biorąc, radio w Ameryce będzie się marnować”. W 1942 roku Paul Lazarsfeld, wybitny badacz komunikacji z Columbia University, stwierdził, że „ogólnie rzecz biorąc, radio było dotychczas konserwatywną siłą w Ameryce e i przyniosło tylko kilka elementów postępu społecznego ”. Rozczarowanie było spowodowane wieloma czynnikami, w szczególności wątpliwymi zastosowaniami, w jakich technologia została wykorzystana przez rządy. Jak podkreślają Asa Briggs i Peter Burke w swojej obszernej A Social History of the Media, „era radia” to nie tylko wiek Roosevelta i Churchilla, ale także Hitlera, Mussoliniego i Stalina ”. Fakt, że tak wielu dyktatorów czerpało tak duże korzyści z radia, stłumił niemal powszechny entuzjazm dla tego medium, a jego komercjalizacja przez wielki biznes zraziła tych, którzy mieli nadzieję, że uczyni to publiczną rozmowę poważniejszą. Nietrudno zgadnąć reakcję Lazarsfelda na erę Rush Limbaugh. Zanikający potencjał demokratyzacyjny radia nie wykluczał nowego pokolenia ekspertów, naukowców i przedsiębiorców przed wygłaszaniem równie przesadnych twierdzeń na temat telewizji. Od lat dwudziestych Orrin Dunlap, jeden z pierwszych krytyków telewizyjnych i radiowych New York Times, przedstawiał argumentację znaną już tym, którzy studiowali historię telegrafu, samolotu czy radia. „Telewizja”, napisał Dunlap, bez cienia wątpliwości, „zapoczątkuje nową erę przyjaznych stosunków między narodami ziemi”, podczas gdy „obecne koncepcje obcych krajów ulegną zmianie”. David Sarnoff, kierownik z Radio Corporation of America uważał, że powstaje kolejna globalna wioska: „Kiedy telewizja spełni swoje ostateczne przeznaczenie. . . z tym może nadejść. . . nowe poczucie wolności i. . . lepsze i szersze porozumienie między wszystkimi narodami świata ”.

Lee De Forest, słynny amerykański wynalazca, pokładał duże nadzieje w edukacyjnym potencjale telewizji, wierząc, że może ona nawet zmniejszyć liczbę wypadków drogowych. „Czy możemy sobie wyobrazić”, zapytał w 1928 roku, „skuteczniejszy sposób na nauczenie społeczeństwa sztuki ostrożnej jazdy po naszych autostradach niż cotygodniowe przemówienie jakiegoś gorliwego policjanta, ilustrowane diagramami i zdjęciami?” To, że takie programy nigdy nie trafiły do ​​głównego nurtu amerykańskiej telewizji, jest niefortunne – zwłaszcza w czasach, gdy kierowcy wysyłają SMS-y do wypadków, a nawet piloci samolotów pracują na swoich laptopach w trakcie lotu – ale to nie ograniczenia technologii są winne. . To raczej ograniczenia ówczesnego dyskursu politycznego, kulturowego i regulacyjnego sprawiły, że duża część amerykańskiej telewizji stała się, jak to określił w 1961 roku przewodniczący Federalnej Komisji Łączności, Newton Minow, „rozległym pustkowiem”. Podobnie jak radio, telewizja miała radykalnie zmienić politykę tamtych czasów. W 1932 roku Theodore Roosevelt junior, syn nieżyjącego już prezydenta, a następnie generalnego gubernatora Filipin, przewidział, że telewizja „pobudzi naród do żywego zainteresowania tymi, którzy kierują jego polityką i samą polityką”, co skutkowałoby w „bardziej inteligentnym, bardziej skoordynowanym działaniu elektoratu; ludzie będą myśleć więcej za siebie, a mniej prosto pod kierownictwem lokalnych członków machiny politycznej ”. Thomas Dewey, wybitny republikanin, który w latach czterdziestych walczył z Franklinem Delano Rooseveltem i Harrym Trumanem, porównał telewizję do rentgena, przewidując, że „powinno to uczynić konstruktywny postęp w kampanii politycznej”. Każdy, kto oglądałby amerykańską telewizję podczas sezonu wyborczego, byłby wybaczony, gdyby nie zgadzał się z optymizmem Deweya. Taki entuzjazm do telewizji trwał do niedawna.

W 1978 roku Daniel Boorstin, jeden z najsłynniejszych amerykańskich historyków dwudziestego wieku, wychwalał moc telewizji w zakresie „rozwiązywania armii, do prezydentów kasjerów, w celu stworzenia zupełnie nowego demokratycznego świata – demokratycznego w sposób nigdy wcześniej nie wyobrażany, nawet w Ameryce”. Boorstin napisał te słowa, gdy wielu politologów i decydentów wciąż czekało na triumf „teledemokracji”, w której obywatele używaliby telewizji nie tylko do obserwacji, ale także do bezpośredniego udziału w polityce. (Nadzieja, że ​​nowa technologia umożliwi większy udział społeczeństwa w polityce, jest wcześniejsza niż telewizja; w 1940 roku Buckminster Fuller, kontrowersyjny amerykański wynalazca i architekt, wychwalał już zalety „telefonicznej demokracji”, która mogłaby umożliwić „głosowanie przez telefon na wszystkich znanych pytania przed Kongresem. ”) Z perspektywy czasu, pisarz science-fiction Ray Bradbury był bliżej prawdy w 1953 roku niż Boorstin kiedykolwiek w 1978 roku.„ Telewizja ”, napisał Bradbury,„ to ta podstępna bestia, ta Meduza, która zamraża miliard ludzie co noc kamienowali, wpatrując się w nie, tę Syrenę, która wołała, śpiewała i obiecywała tak wiele, a mimo wszystko dawała tak mało. Pojawienie się komputera wywołało kolejny utopijny szał. Artykuł z 1950 roku w Saturday Evening Post stwierdził, że „myślące maszyny przyniosą zdrowszą i szczęśliwszą cywilizację niż jakakolwiek znana dotąd”. Nadal żyjemy w czasach niektórych z jej najbardziej absurdalnych przepowiedni. I choć z perspektywy czasu łatwo jest mieć rację, należy pamiętać, że nie było z góry ustalonego kierunku, w jakim rozwijało się radio i telewizja w ostatnim stuleciu. Brytyjczycy podjęli kluczową strategiczną decyzję, aby nadać priorytet publicznym transmisjom i stworzyli potwora znanego jako British Broadcasting Corporation; Amerykanie z wielu powodów kulturowych i biznesowych przyjęli bardziej leseferystyczne podejście. Można by dyskutować o zaletach obu strategii, ale wydaje się niezaprzeczalne, że krajobraz mediów amerykańskich mógł wyglądać dzisiaj zupełnie inaczej, zwłaszcza gdyby utopijne ideologie promowane przez tych, którzy są zainteresowani tym biznesem, zostały nieco dokładniej zbadane. Choć kusi, by zapomnieć o wszystkim, czego nauczyliśmy się z historii i traktować Internet jako zupełnie nową bestię, powinniśmy pamiętać, że tak musiały się czuć również wcześniejsze pokolenia. Oni także byli kuszeni, by zlekceważyć gorzkie lekcje poprzednich rozczarowań i wejść w nowy, wspaniały świat. Najczęściej uniemożliwiało im to podejmowanie właściwych decyzji regulacyjnych dotyczących nowych technologii. W końcu trudno jest regulować boskość. Ironia polega na tym, że internet, choć nigdy nie spełnił uberutopijnych obietnic świata bez nacjonalizmu i ekstremizmu, dostarczył więcej, niż mogli sobie życzyć nawet najbardziej radykalni optymiści. Ryzyko polega na tym, że biorąc pod uwagę względne sukcesy tej młodej technologii, niektórzy mogą założyć, że najlepiej byłoby zostawić ją w spokoju, zamiast poddawać ją jakiejkolwiek regulacji. To jest błędny pogląd. Uznanie rewolucyjnego charakteru technologii jest kiepską wymówką, aby jej nie regulować. Inteligentne regulacje, jeśli w ogóle, są pierwszą oznaką, że społeczeństwo poważnie podchodzi do danej technologii i wierzy, że zostanie ona przyjęta; że chętnie zastanawia się nad konsekwencjami; i że chce znaleźć sposoby, aby uwolnić i wykorzystać swój rewolucyjny potencjał. Żadne społeczeństwo nigdy nie stworzyło odpowiednich ram regulacyjnych, patrząc tylko na mocne strony technologii i odmawiając zbadania, w jaki sposób jej zastosowania mogą również powodować skutki szkodliwe dla społeczeństwa. Problem z cyberoptymizmem polega na tym, że po prostu nie dostarcza on użytecznych intelektualnych podstaw do jakichkolwiek regulacji. Jeśli wszystko jest takie różowe, po co w ogóle zawracać sobie głowę regulacją? Taki sprzeciw mógł być słuszny na początku lat 90., kiedy dostęp do Internetu był ograniczony do naukowców, którzy nie mogli przewidzieć, dlaczego ktokolwiek miałby chcieć wysyłać spam. Ponieważ jednak dostęp do Internetu został zdemokratyzowany, stało się oczywiste, że samoregulacja nie zawsze będzie możliwa, biorąc pod uwagę tak różnorodny zestaw użytkowników i zastosowań.

Audyt Mózgu Hackera : Cyberprzestępca w grupach – atak na krytyczne infrastruktury narodów

Infrastruktura krytyczna to istotny zasób lub system fizyczny lub cybernetyczny, którego zniszczenie mogłoby zdestabilizować gospodarkę narodową lub styl życia albo zagrozić bezpieczeństwu narodowemu. Niektóre przykłady takich infrastruktur to sieci energetyczne, systemy transportowe, sieci telekomunikacyjne, służby ratownicze, placówki opieki zdrowotnej i organizacje rządowe. We współczesnym, silnie połączonym świecie infrastruktura krytyczna danego kraju zależy od niezawodności dwóch kluczowych systemów, które są również uważane za infrastruktury krytyczne: sieci elektroenergetycznej i sieci komunikacyjnych. Ataki na którykolwiek z tych systemów mogą potencjalnie wywołać efekt falowania w innych infrastrukturach, a w najgorszym przypadku mogą doprowadzić do zapaści gospodarczej kraju. Na szczęście zarówno sieć elektroenergetyczna, jak i sieci komunikacyjne w Stanach Zjednoczonych są obecnie bardzo dojrzałe, mając swoje korzenie w XIX wieku. W obu przypadkach istnieją nadmiarowości i kopie zapasowe, aby zapewnić ich niezawodne działanie w najgorszych katastrofach. W Stanach Zjednoczonych i większości innych krajów rząd federalny reguluje te branże i zapewnia finansowanie systemów bezpieczeństwa, zdolności przeciwprzepięciowej i możliwości tworzenia kopii zapasowych. Względnie nowy w społeczności infrastruktury jest globalny Internet, ogromna „sieć sieci”, która powstała z luźnego zbioru akademickich, prywatnych, wojskowych i rządowych sieci komputerowych w latach 70. i 80. XX wieku. W ciągu niecałych 20 lat Internet rozrósł się z mniej niż 10 000 hostów do dziesiątek milionów hostów na całym świecie. W udokumentowanej historii ludzkości nigdy nie było tak gwałtownego rozwoju nowej metody komunikacji. Zależność infrastruktury krytycznej od Internetu rośnie z roku na rok i w ciągu następnej dekady przewyższy zależność od tradycyjnego systemu telefonicznego. Internet jest w dużej mierze nieuregulowany, kontrolowany przez zasady, które bardziej przypominają wytyczne techniczne niż sztywne prawa i umowy egzekwowane przez rząd. Wiele standardów technicznych zostało napisanych na początku lat siedemdziesiątych XX wieku, kiedy liczba podłączonych komputerów wynosiła zaledwie setki, ale te standardy są nadal w znacznym stopniu w dzisiejszych czasach. Nie ma rządowych planów tworzenia kopii zapasowych, żadnych obowiązkowych funkcji bezpieczeństwa ani ograniczeń dotyczących kto może łączyć się z Internetem. Jedynym wymaganiem jest przestrzeganie przez użytkowników podstawowych wymagań technicznych określonych w dokumentach znanych jako Internet Requests for Comment lub RFC. Jednak producenci oprogramowania i sprzętu, rządy, przedsiębiorstwa prywatne i osoby fizyczne często naruszają nawet ten wymóg. Ze względu na rosnące uzależnienie infrastruktur krytycznych od Internetu w zakresie przepływu informacji i danych, narody są narażone na ryzyko wystąpienia ataków na bezpieczeństwo gospodarcze lub narodowe, których przejawem są ataki na sam Internet. Zagrożenia dla Internetu szybko rosną, a tempo opracowywania nowych metod wykrywania i zapobiegania tym zagrożeniom w czasie rzeczywistym rośnie bardzo wolno. Jak więc naród charakteryzuje te zagrożenia, aby się przed nimi zabezpieczyć, a tym samym zapewnić niezawodne działanie infrastruktury krytycznej? W jaki sposób gospodarka cyfrowa zbudowana na standardach, które są niczym więcej niż zwykłymi dżentelmeńskimi umowami, zapobiega temu, co wydaje się być pewnym kataklizmicznym wnioskiem? Czy potrzebny jest większy nadzór i regulacja ze strony rządu, czy też Internet ostatecznie samoreguluje się w procesie powszechnie nazywanym zarządzaniem branżą?

Aby odpowiedzieć na te pytania, dokonano przeglądu kilku znaczących wydarzeń z ostatniego ćwierćwiecza, które doprowadziły nas do obecnej sytuacji. Ponadto w rozdziale przyjrzymy się różnym typom zagrożeń, które znamy dzisiaj, a także przyszłym, które powoli stają się jasne, w miarę jak lepiej rozumiemy, co oznacza zjawisko internetowe.

Lean Customer Development : Zebranie zespołu wokół nowych informacji

Najlepszym sposobem zapewnienia, że ​​wysiłki związane z rozwojem klienta poprawią wysiłki związane z rozwojem produktu, jest maksymalizacja liczby osób w zespole, które rozmawiają z klientami. Osoby te w naturalny sposób wprowadzają wiedzę klientów do swoich codziennych decyzji dotyczących zakresu produktu, szczegółów wdrożenia, szczegółów projektu i marketingu. Rozmowy kwalifikacyjne w parach to cenna technika przyciągania większej liczby osób do świata klienta. Inną techniką jest zaproszenie dużej grupy osób do pomocy w kategoryzowaniu opinii klientów. W Yammerze zazwyczaj robimy to przy użyciu karteczek samoprzylepnych w dużej przestrzeni fizycznej. Wymaga to ponownego przepisania informacji zwrotnej, co zajmuje więcej czasu. Jednak poruszanie się po fizycznych karteczkach zachęca ludzi do dyskusji i reagowania na informacje zwrotne, a także pomaga im skuteczniej zapadać w pamięć. Jednak umysły nie zmieniają się natychmiast. Nawet jeśli ktoś widzi z pierwszej ręki, że jej założenia są unieważnione, potrzeba czasu i powtórzeń, aby zmienić te nowe informacje w korektę kursu. Twoim zadaniem jest pomóc zespołowi spojrzeć na świat oczami klienta i wprowadzić niezbędne zmiany, aby zachować koncentrację i uniknąć marnowania wysiłku. Oto kilka wskazówek, które pomogą Ci skutecznie dzielić się tym, czego się uczysz:

Sprzedawaj to, czego się uczysz

To, czego się uczysz, ma kluczowe znaczenie. Opowiadasz historię, która może uratować lub zniszczyć Twój produkt. Ważne jest, aby zdać sobie sprawę, jak ważne są te spostrzeżenia i odpowiednio je sformułować. Nie wysyłaj e-maili z nudnym tematem, np. „Podsumowanie rozmów z klientami”, chyba że chcesz, aby ludzie Cię wyłączyli.

Brakuje im kontekstu: dostarczają go

Jednym z największych wyzwań podczas raportowania zespołowi jest pamiętanie, że brakuje im kontekstu. Gdy usłyszysz, jak wielu klientów opowiada, jak się zachowują i w co wierzą, trudno sobie przypomnieć, że nie rozumieli ich sytuacji. Nie dotyczy to wyłącznie rozwoju klienta; wraca do klątwy wiedzy wspomnianej w rozdziale 5. Klątwa wiedzy zaślepia cię na świadomość, że musisz wyjaśnić każdy krok, który przybliżał cię do konkluzji. Dla osób, które nie brały udziału w rozmowie, nie jest od razu oczywiste, które komentarze, mowa ciała lub pytania są istotne.

Zachęcaj do pytań (nie przechodź do zaleceń) Zachęcaj do zadawania pytań i dyskusji. Przechodzenie bezpośrednio do zaleceń lub opinii skutecznie wyłącza Twój zespół z obiegu. Jeśli inni nie czują, że uczestniczą w rozwoju procesu klienta , mogą zacząć mu subtelnie opierać się. Pierwszy krok do zdobycia ludzi do udziału? Upewnij się, że słuchają.

Bądź tam, gdzie podejmowane są decyzje

Spostrzeżenia dotyczące rozwoju klienta powinny przekształcić się w działania i decyzje. Lepiej jest udostępniać informacje przez pięć minut podczas spotkania dotyczącego zakresu produktu lub ustalania priorytetów, niż organizować godzinne spotkanie, podczas którego ludzie słuchają i nikt nie podejmuje działań.

Skonfiguruj regularny harmonogram udostępniania zdobytej wiedzy.

Jak często powinno tak być? To zależy. Użyj częstotliwości, która jest odpowiednia dla rozmiaru i szybkości Twojej firmy. Powiem ci, co działało u mnie w różnych sytuacjach. W KISSmetrics zazwyczaj konsolidowałem i dzieliłem się opiniami na temat rozwoju klientów tuż przed naszymi cotygodniowymi spotkaniami dotyczącymi priorytetów produktów. W ciągu typowego tygodnia mogłem przeprowadzić 5–10 wywiadów, z których każdy podsumowałem w sposób opisany w poprzedniej sekcji. W Yammerze ci z nas, którzy zajmują się rozwojem klienta, przesyłają notatki z wywiadów do naszej wewnętrznej sieci Yammer, gdy tylko rozmowa zostanie zakończona. Każdy w zespole projektowym może natychmiast przeczytać notatki z wywiadów i zadawać pytania. Aby rozpowszechniać informacje między zespołami produktowymi, udostępniamy także podsumowania na comiesięcznym spotkaniu, aby omówić badania użytkowników i aktualizacje analiz. Te spotkania są bardziej konwersacyjne, dlatego przedstawiamy lekkie prezentacje slajdów z wystarczającą ilością informacji, aby zachęcić do rozmowy

Ile Google wie o Tobie : Wszystkie drogi prowadzą do Rzymu

Korzystanie z usług online zapewniających wskazówki ujawnia poufne informacje. Zazwyczaj podajesz punkt początkowy i miejsce docelowe, często używając dokładnych adresów. Jak omówiono w poprzedniej części, przemówienia te stanowią bardzo skuteczny sposób na powiązanie różnych osób. Im bardziej szczegółowe i rzadziej używane adresy, tym większa możliwość stworzenia użytecznego połączenia między nimi. Korzystając z usług wskazujących kierunek , podajesz również prawdopodobną trasę podróży. Klikając opcję Drukuj, wskazujesz, że prawdopodobnie będziesz podróżować trasą w formacie bliskiej przyszłości. Podobnie, jeśli użyłeś opcji e-mail lub Link do tej strony, połączyłeś się z grupą osób, które prawdopodobnie będą podróżować tą samą trasą po kliknięciu łącza. Teraz wyobraź sobie wszystkie kierunki, które wygenerowali Twoi pracownicy, używając siedziby Twojej firmy jako lokalizacji początkowej i prowadzącej do miejsc docelowych w okolicy. Możesz zdradzać trasy dojazdów do pracy swoich pracowników, lokalizacje ich domów, miejsca spotkań na lunch, a może nawet strategiczne zamiary swojej firmy. Podobne wyszukiwania mogą zidentyfikować domowe adresy IP tych pracowników, a także wielu odwiedzających Twoją firmę. Wreszcie, gdyby pliki cookie były włączone na tych maszynach, cała ich aktywność online z firmą taką jak Google mogłaby zostać powiązana ze sobą pomimo ruchu na całym świecie. Jest to rzeczywiście zagrożenie dla bezpieczeństwa.

Zaufanie w Cyberspace : NetDB2

NetDB2 obsługuje usługi baz danych, w tym narzędzia do tworzenia aplikacji, tworzenia i ładowania tabel oraz wykonywania zapytań i transakcji dla użytkowników przez Internet. W systemie dane i wszystkie produkty znajdują się po stronie serwera. Użytkownik łączy się z systemem przez Internet i wykonuje zapytania do bazy danych i inne istotne zadania związane z danymi za pośrednictwem przeglądarki internetowej lub interfejsu programowania aplikacji, takiego jak łączność z bazą danych Java (JDBC). Celem jest zmniejszenie złożoności i obciążenia pracą po stronie serwera oraz utrzymanie niewielkiej wagi po stronie klienta. Podstawowy system NetDB2 jest realizowany jako architektura trójwarstwowa, a mianowicie warstwa prezentacji, warstwa aplikacji i warstwa zarządzania danymi.

Podejścia do szyfrowania

Obsługa szyfrowania w bazach danych ma dwa wymiary. Jednym z nich jest szczegółowość danych do zaszyfrowania lub odszyfrowania. Alternatywą jest pole, wiersz i strona. Drugi wymiar to implementacja algorytmów szyfrowania na poziomie oprogramowania i sprzętu. Autorzy w swojej pracy wykonali szyfrowanie na poziomie oprogramowania, szyfrowanie na poziomie sprzętowym oraz kombinacje różnych podejść do szyfrowania.

Szyfrowanie na poziomie oprogramowania

W przypadku systemu NetDB2 szyfrowanie wykonane przy użyciu algorytmu Blowfish zapewnia lepszą wydajność niż algorytm RSA (Rivest i in., 1978). Blowfish to 64-bitowy szyfr blokowy, co oznacza, że ​​dane są szyfrowane i odszyfrowywane w 64-bitowych fragmentach (Schneier, 1996). W tym podejściu twórca zaszyfrowanych danych dostarcza klucz, a baza danych zapewnia funkcję szyfrowania.

Szyfrowanie na poziomie sprzętu

System NetDB2 używa procedury szyfrowania / deszyfrowania o nazwie „Editproc” dla tabel. Procedura edycji jest wywoływana dla całego wiersza tabeli bazy danych, za każdym razem, gdy DBMS uzyskuje dostęp do wiersza. Kiedy nadejdzie żądanie odczytu / zapisu dla wiersza w jednej z tabel, procedura edycji wywołuje algorytm szyfrowania / deszyfrowania DES (1977), który jest implementowany sprzętowo dla całego wiersza. Zalety. Autorzy w swojej pracy zajęli się i ocenili najbardziej krytyczną kwestię dla skutecznego szyfrowania w bazach danych, a mianowicie wydajność. Aby osiągnąć wydajność, przeanalizowali różne alternatywy rozwiązań. Ograniczenia. Wynik zapytania będzie zawierał fałszywe trafienia, które należy usunąć na etapie przetwarzania końcowego po odszyfrowaniu krotek zwróconych przez zapytanie. To filtrowanie może być dość złożone, szczególnie w przypadku złożonych zapytań obejmujących łączenia, podzapytania, agregacje itp. Oczywiście techniki oparte na tym podejściu są niepraktyczne, ponieważ wymagają ciągłej obecności właściciela danych w trybie online, aby wymusić kontrolę dostępu.

Ciemna Strona Neta : Dlaczego niektóre dane muszą pozostać zamglone

Nie tylko emocje i szybkość zagrażają uczciwości tworzenia polityki. To także rosnąca dostępność i mobilność informacji. Ponieważ telefony komórkowe rozprzestrzeniają się w najbardziej odległych zakątkach świata, gromadzenie danych stało się łatwiejsze. Wcześniej odłączone społeczności lokalne mogą teraz informować o praktycznie wszystkim, od skutków klęsk żywiołowych po przypadki łamania praw człowieka i fałszerstwa wyborcze. Nagle tragedia jest bardziej widoczna i (a przynajmniej taka jest nadzieja), jest bardziej prawdopodobne, że zostanie ona skierowana. Technologia rzeczywiście potrafi zdziałać cuda podczas klęsk żywiołowych. Większość poszkodowanych może używać telefonów komórkowych do wysyłania SMS-ów zarówno na temat lokalizacji, jak i problemów. Informacje te można następnie zagregować i zwizualizować na mapie online. Może nie przynieść bezpośredniej pomocy osobom bezpośrednio dotkniętym katastrofą, ale może lepiej poinformować pracowników organizacji humanitarnych o dokładnym charakterze katastrofy, a tym samym pomóc w optymalizacji alokacji ograniczonych zasobów. Jedno z takich narzędzi, Ushahidi, zostało po raz pierwszy zaprojektowane do zgłaszania aktów przemocy podczas kryzysu powyborczego w Kenii i od tego czasu jest z powodzeniem stosowane na całym świecie, w tym podczas niszczycielskich trzęsień ziemi na Haiti i Chile na początku 2010 roku. Ale powód, dla którego wiele projektów poleganie na crowdsourcingu w celu uzyskania wiarygodnych danych w przypadku klęsk żywiołowych wynika z tego, że są to zazwyczaj wydarzenia apolityczne. Nie ma walczących stron, a ci, którzy zgłaszają dane, nie mają żadnej motywacji, aby nimi manipulować. Problem z wykorzystaniem takich narzędzi crowdsourcingowych do innych celów – na przykład dokumentowania naruszeń praw człowieka lub monitorowania wyborów, niektórych innych zastosowań, do których ushahidi został wykorzystany – polega na tym, że dokładność takich raportów jest niemożliwa do zweryfikowania i łatwa do manipulowania. W końcu każdy może wysłać SMS-y w celowo błędnych raportach, aby oskarżyć swoich przeciwników o wykroczenia lub, co gorsza, siać panikę w ich szeregach (pamiętasz nigeryjski SMS, który mówił, że cała żywność jest zatruta?). Aby jednak były wiarygodne, raporty dotyczące praw człowieka i, w nieco mniejszym stopniu, raporty obserwatorów wyborów muszą mieć 100-procentową dokładność. Wynika to ze szczególnego charakteru zgłaszania praw człowieka, szczególnie w warunkach, w których autorytarny rząd może kwestionować ważność wyników. Jeden błędny raport – złożony przez pomyłkę lub celowo – wystarczy, aby podważyć wiarygodność całej bazy danych. A gdy organizacje pozarządowe zajmujące się prawami człowieka zostaną przyłapane na wytwarzaniu danych wątpliwej jakości, rząd ma dobrą wymówkę, aby je zamknąć. New York Times wychwalał potęgę Ushahidi, gdy donosił, że „w miarę gromadzenia danych mapy kryzysowe mogą ujawniać podstawowe wzorce rzeczywistości: ile mil w głąb lądu zabił huragan? Czy gwałty są szeroko rozproszone czy skoncentrowane w pobliżu koszar wojskowych? ” Ale to jest dość mylące. W najlepszym przypadku takie mapy mogą dać nam ogólne wyobrażenie o skali i charakterze nadużyć, ale wartość tego, jako fragmentu danych dotyczących praw człowieka, jest minimalna. zdobyte dane o naruszeniach praw człowieka są łatwe do odrzucenia. Nie chcemy też, aby niektóre informacje związane z łamaniem praw człowieka były publicznie dostępne w Internecie. W wielu krajach gwałt jest nadal poważnym piętnem społecznym. Dostarczenie nawet najmniejszych dowodów – powiedzmy informacji geograficznych o miejscach, w których doszło do gwałtu – może ujawnić ofiary, czyniąc ich życie jeszcze bardziej nie do zniesienia. Zawsze istniał pewien mechanizm ochrony danych wbudowany w sprawozdawczość dotyczącą praw człowieka, a biorąc pod uwagę łatwość, z jaką informacje mogą być gromadzone i rozpowszechniane, w tym przez strony trzecie, które mogą utrudniać pracę organizacji praw człowieka, ważne jest, aby zachować te mechanizmy, niezależnie od bodźca do promowania wolności w Internecie. Nie jest oczywiste, że projekty, które opierają się na crowdsourcingu, nie uzyskają odpowiedniej równowagi, ale musimy oprzeć się centryzmowi internetowemu i wybrać podejście typu „więcej ludzi, więcej danych” bez uwzględnienia potrzeb i możliwości. Jak na ironię, podczas gdy większość ostatnich wysiłków digerati koncentrowała się na uwolnieniu danych z zamkniętych baz danych, ich przyszłe wysiłki mogą wkrótce przesunąć się na wypychanie otwartych danych z powrotem lub przynajmniej znalezienie sposobów ograniczenia mobilności tych danych. dane. Jest to szczególnie ważny problem dla różnych mniejszości etnicznych, które nagle znalazły się w niebezpieczeństwie, ponieważ zdigitalizowane informacje publicznie zidentyfikowały je w sposób, którego nie mogli przewidzieć. W Rosji lokalny oddział Ruchu przeciwko Nielegalnej Imigracji (DPNI), potężnej krajowej sieci antyimigracyjnej, stworzył serię internetowych mash-upów, w których umieszczali dane spisowe dotyczące różnych mniejszości etnicznych mieszkających w rosyjskim mieście Wołgograd na mapa online. Nie zrobiono tego, aby lepiej zrozumieć miejskie życie w Rosji, ale aby zachęcić zwolenników DPNI do organizowania pogromów na tych mniejszościach. DPNI jest interesującym przykładem bezwstydnie rasistowskiej organizacji, która zręcznie dostosowała się do ery Internetu. Nie tylko tworzą mash-upy, ale ich główna witryna internetowa prowadzi sklep internetowy sprzedający nacjonalistyczne koszulki; oferuje opcję tłumaczenia zawartości witryny na język niemiecki, angielski i francuski; a nawet umożliwia każdemu zarejestrowanemu w witrynie przesyłanie własnych wiadomości w stylu Wiki. Albo weźmy Burakumin, jedną z największych mniejszości społecznych w Japonii, wywodzącą się ze społeczności wyrzutków z epoki feudalnej. Od XVII wieku członkowie liczącej milion mieszkańców Burakuminów żyli poza sztywnym systemem kastowym Japonii, a inne kasty udawały, że Burakumin nie istnieje, kiedy grupa japońskich entuzjastów kartografii pokryła stare mapy społeczności Burakumin dzięki zdjęciom satelitarnym Google przedstawiającym Tokio, Osakę i Kioto początkowo wydawało się, że to dobry pomysł. Wcześniej podejmowano niewielkie wysiłki, aby zachować dziedzictwo Burakumin w Internecie. Jednak w ciągu kilku dni gromada japońskich nacjonalistów była podekscytowana ostatecznym znalezieniem dokładnych lokalizacji tak znienawidzonych domów Burakumin, a w japońskiej blogosferze dyskusje na temat pogromów były pełne. Po intensywnej presji ze strony japońskich organizacji pozarządowych zajmujących się walką z dyskryminacją, Google poprosił właścicieli map, aby przynajmniej usunęli legendę, która określała getta w Burakumin jako „miasta szumowiny”. W międzyczasie ksenofobiczni strażnicy Korei Południowej, którzy utworzyli grupę znaną jako Anti-English Spectrum, przeszukiwali portale społecznościowe w poszukiwaniu danych osobowych obcokrajowców, którzy przyjeżdżają do tego kraju, aby uczyć angielskiego, desperacko próbując znaleźć potencjalne niewłaściwe zachowanie, więc że cudzoziemcy mogą zostać wyrzuceni z kraju. Podobnie, chociaż w zachodnich mediach najczęściej wspomina się o notorycznych „wyszukiwarkach ludzkiego ciała” w Chinach ze względu na ich odważne poszukiwania skorumpowanych biurokratów w Internecie, mają one również ciemniejszą stronę. W rzeczywistości mają historię ataków na ludzi, którzy wyrażają niepopularne stanowiska polityczne (wzywając do szacunku dla mniejszości etnicznych) lub po prostu zachowując się nieco poza przyjętymi normami (niewierność małżonkowi). Grace Wang, studentka Duke University, była jednym z najsłynniejszych celów wściekłych „wyszukiwarek ludzkiego ciała” w 2008 roku, u szczytu napięć między Chinami a Zachodem, tuż przed igrzyskami olimpijskimi w Pekinie. Po tym, jak namawiała swoich chińskich internautów, by próbowali lepiej zrozumieć mieszkańców Tybetu, musiała poradzić sobie z falą osobistych ataków, a ktoś nawet opublikował wskazówki do domu jej rodziców na popularnej chińskiej stronie internetowej. (Jej rodzina musiała się ukrywać). Możliwe, że to, co zyskujemy dzięki zdolności do nawiązywania kontaktów i komunikowania się, tracimy nieuchronnie wzmacniając wściekłe internetowe moby, które są dobrze wyszkolone do rzucania „granatami danych” w swoje ofiary . Może to być akceptowalna konsekwencja promowania wolności w Internecie, ale lepiej zaplanujmy z wyprzedzeniem i pomyślmy o sposobach ochrony ofiar. Narażanie życia ludzi na ryzyko z nadzieją, że w przyszłości zajmiemy się konsekwencjami otwarcia wszystkich sieci i baz danych, jest nieodpowiedzialne. Nadmiar danych może stanowić zagrożenie dla wolności i demokracji, tak istotne, jak (jeśli nie bardziej znaczące), że brak danych został w większości utracony przez osoby kibicujące wolności w Internecie. Trudno się temu dziwić, bo to może nie być tak ostry problem w liberalnych demokracjach, gdzie dominująca ideologia pluralistyczna, rosnąca wielokulturowość i silne rządy prawa łagodzą skutki zalewu danych. Jednak większość państw autorytarnych, a nawet przejściowych, nie ma tego luksusu. Nadzieja, że samo otwarcie wszystkich sieci i przesłanie wszystkich dokumentów ułatwi lub zwiększy prawdopodobieństwo przejścia do demokracji, jest tylko iluzją. Jeśli smutne doświadczenie lat 90. nauczyło nas czegoś, to tego, że udana transformacja wymaga silnego państwa i stosunkowo uporządkowanego życia publicznego. Jak dotąd Internet stanowił poważne zagrożenie dla obu.

Audyt Umysłu Hackera : Zarządzanie przypadkami poufnymi

Wcześniej omówiliśmy wiele funkcji zarządczych związanych z ryzykiem wewnętrznym, w tym funkcje prewencyjne w zakresie badań przesiewowych pracowników, szkolenia uświadamiające i edukacyjne oraz ustanowienie skutecznych i egzekwowanych polityk i praktyk. Inne funkcje zarządzania wymienione w ramach wykrywania obejmowały wrażliwość na problemy i zdarzenia na krytycznej ścieżce, które wskazują na potencjalną obecność rosnącego ryzyka wewnętrznego; Podkreślono również, że niezadowolenie i nieskuteczne interwencje w rozwiązywaniu tych problemów przyczyniają się do zwiększonego potencjału działań wewnętrznych. W niniejszej sekcji podsumowano niektóre z wcześniejszych ustaleń i omówiono zalecenia dotyczące poprawy zarządzania ryzykiem wewnętrznym. Kroki, które organizacje mogą podjąć, aby ocenić swoją zdolność do zapobiegania, wykrywania i zarządzania ryzykiem wewnętrznym zostały bardziej szczegółowo opisane w artykule na temat personelu wewnętrznego i audytu bezpieczeństwa. Wysokie wskaźniki luk w polityce zatrudnienia i bezpieczeństwa, które albo prowadzą do wykorzystywania informacji poufnych, albo nie pomagają w zapobieganiu lub wykryciu, wskazują na potrzebę szerszej oceny i edukacji polityki bezpieczeństwa. Potencjał ryzyka powinien natychmiast dopasować obecną politykę i praktyki dotyczące personelu i bezpieczeństwa do wybranych rzeczywistych przypadków poufnych. Jakie, jeśli w ogóle, zasady i praktyki byłyby odpowiednie? Co by się stało, gdyby te zasady i praktyki zostały zastosowane w przypadku hakera, takim jak Carpenter, lub w przypadku właściciela, takiego jak Floyd? Fakt, że były jeszcze wyższe wskaźniki niepowodzeń we wdrażaniu i egzekwowaniu polityki, sugeruje istnienie jeszcze głębszego problemu. Czy zaangażowani pracownicy byliby w ogóle świadomi odpowiednich zasad i praktyk? W wielu z tych przypadków, obejmujących awarie wdrażania i egzekwowania, nie było środków technicznych do egzekwowania polityki, brakowało zasobów ludzkich, personel nie rozumiał znaczenia polityki lub przestępcy po prostu wykorzystali wyższą wiedzę o systemie, aby ignorować i omijać próby egzekwowania . Jednym z najważniejszych ustaleń tego badania było stwierdzenie, że istnieje „okno” na zajęcie się problemami kadrowymi dotykającymi te osoby. Chociaż wielu autorów oferowało narzędzia systemowe do wykrywania nadużyć insiderów , wyniki te wskazują, że problemy z personelem offline również zapewniają wczesne ostrzeżenie. Osoby te były podobno niezadowolone w niektórych przypadkach przez ponad rok wcześniej. na swoje ataki, a kierownictwo było świadome tych problemów personalnych na tygodnie, jeśli nie miesiące przed atakiem, jednak występowały konsekwentne problemy z interwencją. W rzeczywistości, w wielu przypadkach działania kierownictwa zaostrzyły problem. Odkrycie to wskazuje na potrzebę ulepszonych szkoleń dla kierownictwa i procedur obejmujących interwencje z osobami z grup ryzyka. Istotną częścią poprawy zarządzania niezadowolonymi pracownikami, którzy stanowią ryzyko wykorzystania informacji poufnych, powinna być bardziej dogłębna i skoordynowana ocena przypadku. Opisany na wstępie przypadek Billa jest dobrym przykładem skutecznej oceny i planowania sprawy, gdzie na jakość rozwiązania w tej sprawie złożyły się dwa kluczowe elementy interwencji firmy, w tym unikanie dalszego sabotażu i zapobieganie przemocy. . Po pierwsze, skorzystanie z usług konsultanta zewnętrznego pozwoliło spojrzeć na Billa w kontekście rówieśników, rodziny, organizacji, społeczności, a nawet kwestii społecznych i ekonomicznych odgrywających rolę w kryzysie (takich jak obniżona cena ropy naftowej wywierająca presję ekonomiczną na zakład), ponieważ siły te rozwijały się z biegiem czasu. skorzystanie z usług konsultanta zewnętrznego ułatwiło również zbadanie problemów organizacyjnych, które pomogły Billowi podążać ścieżką krytyczną, w tym trudności firmy w przestrzeganiu własnych polityk i praktyk, brak interwencji wcześniej, a także strach, jaki Bill był w stanie zaszczepić w całej firmie, aby zastraszyć kolegów i przełożonych. Zewnętrzny konsultant był również w stanie zająć się powiązaniami politycznymi, które chroniły Billa przed konsekwencjami jego działań i zmienić priorytety firmy w tym kryzysie. Ponadto doświadczenie kliniczne konsultanta pozwoliło na ocenę ryzyka i proces planowania z uwzględnieniem osobowości Billa, alkoholizmu, depresji, ryzyka przemocy (Shaw i Post, 1997) oraz śmiertelnej choroby jego żony i prób samobójczych. Drugim kluczowym elementem oceny była koordynacja między różnymi zaangażowanymi stronami i działami, w tym operacjami, zasobami ludzkimi i bezpieczeństwem. Podczas gdy strony siedziały przy stole i porównując notatki, odkryto i udostępniono nowe informacje, opracowano lepsze planowanie awaryjne, a także uzgodniono i egzekwowano bardziej szczegółowe i dogłębne rozwiązania multidyscyplinarnych wyzwań przedstawionych przez Bill. To skoordynowane podejście zespołowe ułatwiło również potraktowanie trudności w przypadku jako symptomów większych problemów wpływających na organizację podczas przeglądu powypadkowego. Ocenę przypadku i planowanie z Billem można porównać ze sprawą Lloyda. W tej sytuacji konflikty między jego przełożonymi a kierownictwem opóźniły rozwiązanie i dały Lloydowi czas na zaplanowanie i wykonanie ataku. Lloyd miał również złożone wykształcenie medyczne i psychiatryczne, które nigdy nie było brane pod uwagę w procesie oceny i planowania. Oprócz oceny przypadku tabela 8.8 przedstawia kilka problemów związanych z procesem zawieszenia i zakończenia w takich przypadkach. Przede wszystkim po tym, jak pracownik opuścił miejsce pracy z powodu wypowiedzenia lub został umieszczony na zawieszeniu, nie udało się zablokować mu dostępu do systemu, co sprzyjało wysokiemu wskaźnikowi zdalnych ataków. Dostęp pracowników przebywających na miejscu w okresie próbnym nie był również skutecznie ograniczany ani monitorowany. Wysoki wskaźnik tych ataków po rozwiązaniu umowy wskazuje na potrzebę dokładnego przeglądu kwestii personelu i bezpieczeństwa przed zwolnieniem pracowników zagrożonych. Ponadto warto ponownie przeanalizować zasady i praktyki związane ze zdalnym dostępem. Chociaż dostęp zdalny może zwiększyć produktywność, organizacje mogą potrzebować zabezpieczeń (takich jak prawo do inspekcji na miejscu), aby zapewnić, że ten dostęp nie jest nadużywany, zwłaszcza po rozwiązaniu umowy. Zakończenie zdalnego dostępu może być również powiązane z innymi formami naruszeń personelu.

Podsumowanie

Wiele standardowych zasad i praktyk dotyczących personelu i bezpieczeństwa wymaga dostosowania do nowego środowiska zdominowanego przez IT. Standardowe praktyki zapobiegania, wykrywania i zarządzania – jeśli są stosowane – nie wydają się odpowiadać bieżącym wyzwaniom związanym z poufnymi informacjami. Nie pozwalają one na selekcję kandydatów na pracowników z nietradycyjnym doświadczeniem w zakresie ryzyka ani skuteczne wykrywanie osób zagrożonych w odpowiednim czasie. Skuteczne zasady i praktyki dotyczące personelu i bezpieczeństwa nie były również skuteczne i / lub egzekwowane w sposób ułatwiający wczesne wykrywanie ryzyka lub skuteczną interwencję w naszych przypadkach. Nasze dotychczasowe wyniki również wyraźnie wskazują, że wyprowadzenie niezadowolonego pracownika za drzwi nie gwarantuje ochrony przed atakami. Nasze podejście do zrozumienia ewolucji zagrożeń wewnętrznych w tym środowisku polega na podążaniu za zaangażowanymi ludźmi, systemami, instytucjami i społecznościami podczas ich interakcji, aby przyczyniać się do zwiększania z czasem ryzyka związanego z wykorzystaniem informacji wewnętrznych. Na ostatnim etapie badań kładziemy nacisk nie na rozwinięcie dogłębnych profili osobowości przestępcy, ale na bardziej szczegółowe, pragmatyczne zrozumienie, w jaki sposób osoby z otoczenia doświadczają jego zachowania w miejscu pracy. rosnący problem bezpieczeństwa finansowego i narodowego poprzez gromadzenie i analizowanie danych ze studiów przypadku. Stworzenie zestawu szablonów osobowości poufnych, aby pomóc badaczom, nie jest prostym zadaniem. W miarę gromadzenia większej ilości danych praktyczne zastosowanie tych wyników może stać się jaśniejsze. W dłuższej perspektywie wierzymy, że „nie ma nic bardziej praktycznego niż dobra teoria”.