Zaufanie w Cyberspace : Zarządzanie kluczami w chmurze

W pracy zaproponowano wykorzystanie chmury do oddzielenia zarządzania lokalnymi kluczami szyfrującymi specyficznymi dla użytkownika od jednego z kluczy bezpieczeństwa specyficznych dla roli. Takie podejście umożliwia proste zarządzanie kluczami i schematy unieważniania. W opartym na chmurze modelu DaaS właściciel danych dzwoni do dostawcy usług w chmurze, aby hostował swoją bazę danych i zapewniał klientom bezproblemowy dostęp do danych. Jednak outsourcing baz danych uczciwej, ale ciekawej stronie trzeciej może prowadzić do kilku problemów związanych z poufnością, prywatnością, uwierzytelnianiem i integralnością danych. Szyfrowanie bazy danych zostało zaproponowane jako rozwiązanie nawet wtedy, gdy usługodawcy nie można ufać. Rozwiązania związane z szyfrowaniem prowadzą do problemów związanych z zarządzaniem kluczami. Ta praca sugeruje rozwiązanie mające na celu zmniejszenie złożoności zarządzania kluczami, w którym źródłowa baza danych jest replikowana n razy, gdzie n to liczba różnych ról mających dostęp do bazy danych. Każda replika bazy danych to widok w całości zaszyfrowany przy użyciu klucza k utworzonego dla odpowiedniej roli. Za każdym razem, gdy tworzona jest nowa rola, odpowiadający jej widok jest tworzony z nowym kluczem wyraźnie wygenerowanym dla nowej roli. Gwarantuje to, że w przypadku dynamicznej aktualizacji roli nie są wymagane żadne zmiany w bazie danych. Odwołanie roli prowadzi tylko do utworzenia nowego zmaterializowanego widoku, który będzie wymagał ponownego wprowadzenia klucza w odpowiedniej bazie danych. Unika się ponownego szyfrowania danych w znacznie częstszym przypadku odwołania użytkownika, nie dostarczając klucza używanego do szyfrowania powiązanej z rolą bazy danych użytkownikom przypisanym do tej roli. Zamiast tego każdy użytkownik otrzymuje token, który umożliwia mu adresowanie żądania szyfrowania do zestawu serwerów kluczy Ks w chmurze. Proponowane podejście do zarządzania kluczami jest wyjaśnione w kolejnych punktach.

Ciemna Strona Neta : Po utopii – Manifest cyberrealistyczny

Kilka miesięcy po przemówieniu Hillary Clinton na temat wolności w Internecie, Ethan Zuckerman, starszy badacz z Berkman Center for Internet and Society na Uniwersytecie Harvarda i powszechnie szanowany ekspert od cenzury Internetu, napisał przejmujący esej zatytułowany „Internet Freedom: Beyond Circumvention”, jeden z pierwsze poważne próby zmierzenia się z implikacjami politycznymi nowego ulubionego modnego hasła Waszyngtonu. Zuckerman przedstawił w nim ważny argument, że tworzenie narzędzi do przełamywania autorytarnych zapór ogniowych nie wystarczy, ponieważ w Chinach jest zbyt wielu użytkowników Internetu, aby uczynić go przystępnym, oraz zbyt wiele nietechnologicznych barier utrudniających swobodę wypowiedzi w sieci. „Nie możemy ominąć cenzury … Niebezpieczeństwo w wysłuchaniu wezwania sekretarza Clintona polega na tym, że zwiększamy prędkość, maszerując w złym kierunku” – napisał. Jego własny wkład w debatę polegał na wyjaśnieniu kilku teorii, które mogą pomóc decydentom lepiej zrozumieć, w jaki sposób Internet może popychać autorytarne społeczeństwa w kierunku demokratyzacji. „Uważam, że aby dowiedzieć się, jak promować wolność w internecie, musimy zacząć odpowiadać na pytanie:„ Jak myślimy, że Internet zmienia zamknięte społeczeństwa? ”- napisał Zuckerman. Wymienił trzy dobre potencjalne odpowiedzi. Jedna z takich teorii głosi, że zapewnienie dostępu do ukrytych informacji może ostatecznie skłonić ludzi do zmiany opinii o ich rządach, wywołując rewolucję. Inny zakłada, że ​​jeśli obywatele mają dostęp do różnych portali społecznościowych i narzędzi komunikacyjnych, takich jak Skype, są w stanie lepiej planować i organizować swoją działalność antyrządową. Trzecia teoria przewiduje, że zapewniając retoryczną przestrzeń, w której można dyskutować nad różnymi pomysłami, Internet stopniowo zapewni nowemu pokoleniu liderów bardziej nowoczesny zestaw wymagań. Jak słusznie zauważa Zuckerman, wszystkie te teorie mają jakąś wartość intelektualną. Dodatkowe założenia, które poczynił, jawnie lub niejawnie, są takie, że rząd amerykański ma oddzielną pulę pieniędzy, którą może wydać na kwestie związane z wolnością w Internecie; że większość tych pieniędzy niezmiennie byłaby przeznaczona na finansowanie rozwiązań technologicznych, a nie politycznych; i że najlepiej jest ustalić priorytety, które narzędzia są najbardziej potrzebne. Zuckerman sugeruje zatem, że decydenci muszą najpierw dowiedzieć się, która teoria ma kierować ich wysiłkami w przestrzeni online, a następnie polegać na niej, aby przydzielić swoje zasoby. , muszą upewnić się, że narzędzia takie jak Twitter i Facebook są szeroko dostępne i odporne zarówno na próby zablokowania do nich dostępu, jak i ataki DDoS. W przeciwieństwie do tego, gdyby trzymali się teorii „wyzwolenia przez fakty”, musieliby priorytetowo traktować dostęp do blogów opozycji, a także stron internetowych, takich jak Wikipedia, BBC News i tak dalej. Zamiast formułować lepszą teorię, która uzupełniłaby Zuckermansa, trzeba w pierwszej kolejności zastanowić się, jakie rodzi zapotrzebowanie na takie teorie, choć trudno nie zgodzić się z jego ostrzeżeniem, że w pogoni za nirwaną wolności w Internecie decydenci mogą przyspieszyć w złym kierunku, neo-Weinbergowska filozofia działania Zuckermana wydaje się znacznie bardziej niejednoznaczna. Opiera się na przekonaniu, że kiedy decydenci zrozumieją „logikę” Internetu, który w interpretacji Zuckermansa z natury faworyzuje tych, którzy kwestionują autokrację i władzę, ale w sposób, którego być może jeszcze nie rozumiemy, będą w stanie sformułować mądrzejsze polityki internetowe i może następnie zastosować szereg rozwiązań technologicznych, aby osiągnąć cele tych polityk. Dlatego z punktu widzenia Zuckermansa ważne jest, aby wyartykułować liczne teorie, według których Internet może przekształcać autokracje, a następnie działać na tych, które najlepiej pasują do rzeczywistości empirycznej. W międzyczasie mentalna gimnastyka polegająca na proponowaniu i ocenianiu teorii może również nadać znaczenie terminowi „wolność w Internecie”, który nawet Zuckerman przyznaje, że jest obecnie pusty. Najbardziej niepokojący jest ten ostatni punkt: chociaż Zuckerman zgadza się, że wolność w Internecie stanowi kiepską podstawę skutecznej polityki zagranicznej, niemniej jednak chętnie proponuje – nieco cynicznie – wszelkiego rodzaju poprawki, dzięki którym ta podstawa przetrwa rok lub dwa dłużej. niż mogłoby się inaczej. Niestety, ci rzadcy intelektualiści, którzy wiedzą bardzo dużo zarówno o Internecie, jak i reszcie świata – Zuckerman jest również ekspertem w dziedzinie Afryki – wolą spędzać czas na szukaniu marginalnych ulepszeń niewłaściwej polityki, nie mogąc lub nie chcąc przejrzeć zgubny Internetocentryzm, który ich przenika i odrzuca sam fundament. (Sytuacji z pewnością nie pomaga fakt, że Departament Stanu finansuje niektóre projekty Zuckermansa na Harvardzie, jak sam przyznał w eseju). Ale jeszcze większym problemem związanym z podejściem Zuckermansa jest to, że jeśli „logika” Internetu przeciwstawi się jego oczekiwaniom i okaże się nieuchwytna, nieistniejąca lub z natury antydemokratyczna, reszta proponowanego kursu również się rozpada i jest w najlepszym przypadku nieistotna i najgorszy zwodniczy. Że Internet może również wzmacniać, a nie osłabiać autorytarne reżimy; że umieszczenie go u podstaw polityki zagranicznej pomaga firmom internetowym odeprzeć krytykę, na którą tak słusznie zasługują; że poświęcenie się wysoce abstrakcyjnemu celowi, jakim jest promowanie wolności w Internecie, komplikuje dogłębną ocenę innych części polityki zagranicznej i krajowej – nie są to spostrzeżenia, które można uzyskać, szukając teorii uzasadniającej własne zamiłowanie do cyberprzestrzeni. utopizm lub internetocentryzm. W rezultacie wiele z tych obaw ledwo rejestruje się podczas opracowywania przyszłych polityk. Droga naprzód to nie wymyślanie nowych teorii, dopóki nie dopasują się one do istniejących uprzedzeń co do logiki Internetu. Zamiast tego należy starać się wymyślić filozofię działania, która pomoże zaprojektować zasady, które nie potrzebują takiej logiki, jak ich dane wejściowe. Ale chociaż staje się oczywiste, że decydenci muszą porzucić zarówno cyberutopizm, jak i Internetocentryzm, choćby z powodu braku spełnienia, nie jest jeszcze jasne, co może zająć ich miejsce. do tworzenia polityki w erze cyfrowej – nazwijmy to cyberrealizmem – jak wygląda? Oto kilka uwag wstępnych, które mogą okazać się przydatne dla przyszłych teoretyków. Zamiast próbować zbudować nowy lśniący filar polityki zagranicznej, cyberrealiści mieliby problem ze znalezieniem miejsca dla Internetu w istniejących filarach, zwłaszcza na biurkach regionalnych oficerów, którzy są już bardzo wrażliwi na kontekst polityczny, w którym działają. Zamiast scentralizować podejmowanie decyzji dotyczących Internetu w rękach kilku wybranych digerati, którzy znają świat start-upów Web 2.0, ale są całkowicie zagubieni w świecie polityki chińskiej lub irańskiej, cyberrealiści przeciwstawiliby się takim próbom centralizacji, zrzucanie takiej samej odpowiedzialności za politykę internetową na barki tych, którzy mają za zadanie tworzyć i realizować politykę regionalną. Zamiast zadawać bardzo ogólne, abstrakcyjne i ponadczasowe pytanie: „Jak naszym zdaniem Internet zmienia zamknięte społeczeństwa?” pytaliby „Jak naszym zdaniem Internet wpływa na nasze obecne zasady dotyczące kraju X?” Zamiast działać w sferze utopii i ahistorii, odpornej na przecinanie się rozwoju polityki wewnętrznej i zagranicznej, cyberrealiści nieustannie szukaliby wysoce wrażliwych punktów interakcji między nimi. Mogliby wyrazić w sposób konkretny, a nie abstrakcyjny, w jaki sposób określone polityki krajowe mogą utrudniać realizację celów na froncie polityki zagranicznej. Nie byliby też zbyt tolerancyjni dla czarno-białej kolorystyki, w związku z czym, chociaż rozumieliby ograniczenia prowadzenia polityki online, nie określiliby całego aktywizmu internetowego jako użytecznego lub szkodliwego wyłącznie na podstawie jego wyników, nakłady lub cele. Zamiast tego oceniliby celowość promowania takiego aktywizmu zgodnie z ich istniejącymi celami politycznymi. Cyberrealiści nie szukaliby technologicznych rozwiązań problemów natury politycznej i nie udawaliby, że takie rozwiązania są w ogóle możliwe. Nie dawaliby też fałszywego wrażenia, że ​​w Internecie przeważają obawy o wolność wypowiedzi nad dostawami energii, podczas gdy ewidentnie tak nie jest. Takie podziękowania byłyby jedynie stwierdzeniami opartymi na faktach, a nie normatywnymi – może się zdarzyć, że obawy o wolność wypowiedzi powinny być ważniejsze niż obawy o dostawy energii – ale cyberrealiści po prostu nie zaakceptowaliby, że jakiekolwiek tak radykalne zmiany w systemie wartości cały aparat polityczny mógłby lub powinien działać pod naciskiem samego internetu. Teraz cyberrealiści szukaliby srebrnej kuli, która mogłaby zniszczyć autorytaryzm – lub nawet kolejną po srebrnej – kuli, ponieważ utopijne marzenia, że ​​taka kula może w ogóle istnieć, nie miałyby miejsca w ich koncepcji polityki. Zamiast tego cyberrealiści skupiliby się na optymalizacji własnych procesów decyzyjnych i uczenia się, mając nadzieję, że odpowiednia kombinacja biurokratycznych kontroli i równowagi w połączeniu z odpowiednią strukturą zachęt pozwoli zidentyfikować niegodziwe problemy, zanim zostaną one błędnie zdiagnozowane jako oswojone. jak pokazują, w jaki sposób konkretne rozwiązanie problemu internetowego może zakłócić rozwiązania innych problemów niezwiązanych z Internetem. Co najważniejsze, cyberrealiści nie daliby się wciągnąć w wysoce abstrakcyjne i ożywione debaty na temat tego, czy Internet podkopuje, czy wzmacnia demokrację. Zamiast tego zaakceptowaliby, że Internet jest gotowy do generowania różnych wyników politycznych w różnych środowiskach i że głównym celem decydentów nie jest stworzenie dogłębnej filozoficznej analizy wpływu Internetu na społeczeństwo, ale raczej uczynienie go sojusznik w osiąganiu określonych celów politycznych. Cyberrealiści przyznaliby, że kontynuując flirt z internetocentryzmem i cyber-utopią, decydenci podejmują ryzykowną grę. Nie tylko marnują wiele możliwości demokratyzacji na małą skalę, jakie ma do zaoferowania Internet, ponieważ patrzą z zbyt odległej perspektywy, ale także mimowolnie ośmielają dyktatorów i zamieniają wszystkich, którzy korzystają z Internetu w państwach autorytarnych w niechętnych więźniów. Cyberrealiści argumentowaliby, że jest to strasznie kosztowny i nieskuteczny sposób promowania demokracji; co gorsza, grozi korupcją lub wyparciem tańszych i skuteczniejszych alternatyw. Dla nich promocja demokracji byłaby zbyt ważnym działaniem, aby wyprowadzić ją z laboratorium w Dolinie Krzemowej, cieszącego się reputacją egzotycznych eksperymentów. Przede wszystkim cyberrealiści wierzyliby, że świat zbudowany z bajtów może przeciwstawić się prawu grawitacji, ale absolutnie nic nie nakazuje, aby był również przeciwny prawu rozsądku.

Ciemna Strona Neta : Proroctwa a zyski

Fetyszyzm technologiczny i ciągłe zapotrzebowanie na poprawki technologiczne nieuchronnie rodzą zapotrzebowanie na wiedzę technologiczną. Eksperci techniczni, jakkolwiek bystrzy w sprawach technologii, rzadko są zaznajomieni ze złożonym kontekstem społecznym i politycznym, w którym proponowane przez nich rozwiązania mają być wdrażane. Niemniej jednak, ilekroć problemy niezwiązane z technologią są postrzegane przez pryzmat technologii, ostatnie słowo mają eksperci techniczni. Projektują rozwiązania, które są często bardziej złożone niż problemy, które próbowali rozwiązać, a ich skuteczność jest często niemożliwa do oceny, ponieważ wypróbowuje się wiele rozwiązań naraz, a ich indywidualny wkład jest często trudny do zweryfikowania. Nawet sami eksperci nie mają pełnej kontroli nad tymi technologiami, ponieważ wywołują efekty, których nie można było przewidzieć. Nie przeszkadza to jednak wynalazcom twierdzić, że ich technologie działają zgodnie z planem. Trudno nie zgodzić się z Johnem Searle’em, amerykańskim filozofem z Uniwersytetu Kalifornijskiego w Berkeley, który pisze, że „dwie najgorsze rzeczy, które eksperci mogą zrobić, tłumacząc. . . technologia dla ogółu społeczeństwa ma po pierwsze sprawiać wrażenie czytelników, że rozumieją coś, czego nie rozumieją, a po drugie, sprawiać wrażenie, że teoria została uznana za prawdziwą, podczas gdy tak nie jest ”. Istnieje duże prawdopodobieństwo, że technologiczni wizjonerzy, na których liczymy, że poprowadzą nas w jaśniejszą cyfrową przyszłość, mogą celować w rozwiązywaniu niewłaściwych problemów. Proponowane przez nich rozwiązania są z definicji technologiczne, ponieważ tylko dzięki zachwalaniu korzyści technologii ci wizjonerzy stali się publicznie niezbędni (lub, jak przejmująco zauważył pisarz Chuck Klosterman, „stopień, w jakim ktokolwiek ceni Internet, jest proporcjonalny do tego, jak cenny jest Internet. ta osoba” ). Ponieważ jedynym młotkiem, jakim dysponują tacy wizjonerzy, jest Internet, nie jest zaskakujące, że każdy możliwy problem społeczny i polityczny jest przedstawiany jako gwóźdź online. Dlatego większość cyfrowych wizjonerów postrzega Internet jako szwajcarski scyzoryk gotowy do każdego zadania. Rzadko ostrzegają nas przed czarnymi dziurami informacyjnymi stworzonymi przez Internet, od rozległego aparatu nadzoru ułatwianego przez publiczny charakter sieci społecznościowych po uporczywe tworzenie mitów i propagandę, które są znacznie łatwiejsze do wyprodukowania i rozpowszechnienia w świecie, w którym każdy margines blogi ruchu, tweety i Facebooka. Samo istnienie takich czarnych dziur sugeruje, że nie zawsze jesteśmy w stanie kształtować efekty Internetu tak, jak byśmy chcieli. Filozof polityczny Langdon Winner miał rację, gdy zauważył w 1986 r., Że „sama dynamika działalności technicznej i ekonomicznej w przemyśle komputerowym najwyraźniej pozostawia jej członkom niewiele czasu na zastanowienie się nad historycznym znaczeniem ich własnej działalności”. Zwycięzca nie mógł przewidzieć, że sytuacja pogorszy się tylko w dobie internetu, teraz, gdy wywołana przez niego nieustanna rewolucja skróciła czas i przestrzeń dla analitycznego myślenia. Niemniej jednak wniosek Zwycięzcy – że „nie pytaj; nie mów ”to„ niewypowiedziane motto dzisiejszych technologicznych wizjonerów ”- wciąż brzmi prawdą. Ich technologiczny fetyszyzm w połączeniu z silnym zamiłowaniem do populizmu – być może tylko sposobem na sprawienie, by „maluchy” z ich bazy fanów, teraz uzbrojeni w iPhone’y i iPady, poczuli się ważni – uniemożliwia większości guru Internetu zadawanie niewygodnych pytań o kwestie społeczne i polityczne skutki Internetu. I dlaczego mieliby zadawać te pytania, skoro mogliby ujawnić, że oni również mają niewielką kontrolę nad sytuacją? Z tego powodu rodzaj przyszłości przepowiadanej przez takich guru – a oni muszą przewidzieć jakąś prawdopodobną przyszłość, aby argumentować, że ich „rozwiązanie” faktycznie zadziała – rzadko odzwierciedla przeszłość. Technolodzy, zwłaszcza wizjonerzy technologiczni, którzy niezmiennie pojawiają się, aby wyjaśnić technologię szerszej publiczności, „w dużej mierze ekstrapolują z dnia dzisiejszego lub jutra, okazując bolesne zainteresowanie przeszłością”, jak powiedział kiedyś Howard Segal, inny historyk technologii. Być może to wyjaśnia nieuniknioną lawinę utopijnych roszczeń za każdym razem, gdy pojawia się nowy wynalazek. W końcu to nie historycy technologii, ale futuryści – ci, którzy wolą fantazjować o jasnej, ale niepoznawalnej przyszłości, zamiast konfrontować się z mroczną, ale poznawalną przeszłością – wysuwają najbardziej oburzające twierdzenia o fundamentalnym, zmieniającym świat znaczeniu każdej nowej technologii, zwłaszcza jeśli jest już w drodze na okładkę magazynu Time. W rezultacie przesadny optymizm co do tego, co ma do zaoferowania technologia, graniczący czasami z irracjonalnym entuzjazmem, przytłacza nawet tych, którzy mają lepszą znajomość historii, społeczeństwa i polityki. Na dobre lub na złe, wielu takich ludzi nie ma zasobów (i czasu), aby zbadać, w jaki sposób każda nowa aplikacja na iPhone’a przyczynia się do rozwoju cywilizacji i dlatego rozpaczliwie potrzebują ekspertyzy na temat tego, jak technologia naprawdę zmienia świat. To dzięki ich przesadnym twierdzeniom o kolejnej rewolucji cyfrowej tak wielu guru Internetu w końcu doradza tym, którzy mają władzę, narażając swoją integralność intelektualną i zapewniając obecność centryzmu internetowego w planowaniu polityki na nadchodzące dziesięciolecia.

Hannah Arendt, jedna z najbardziej cenionych intelektualistów publicznych w Ameryce, była świadoma tego problemu w latach sześćdziesiątych XX wieku, kiedy „naukowo myślący powiernicy mózgów” – Alvin Weinberg był tylko jednym z wielu; innu  dzieciak z zamiłowaniem do modelowania komputerowego, Robert McNamara, został wyznaczony na czele wojny w Wietnamie – zaczęli penetrować korytarze władzy i wpływać na politykę rządu. „Problem [z takimi doradcami] nie polega na tym, że są na tyle z zimną krwią, aby„ myśleć o czymś nie do pomyślenia / ”ostrzegła Arendt w„ O przemocy ”,„ ale oni nie „myślą”. „Zamiast oddawać się takiej staromodne, niemożliwe do skomputeryzowania działania ”- napisała -„ liczą się z konsekwencjami pewnych hipotetycznie założonych konstelacji, nie mając jednak możliwości sprawdzenia ich hipotezy na podstawie rzeczywistych zdarzeń ”. Pobieżne spojrzenie na przesadną i całkowicie bezpodstawną retorykę, która nastąpiła po irańskiej rewolucji na Twitterze, wystarczy, aby nas zapewnić, że niewiele się zmieniło. Arendt niepokoiło nie tylko nieustanne gloryfikowanie technicznej, w dużej mierze ilościowej wiedzy eksperckiej kosztem erudycji. Obawiała się, że zwiększone poleganie na niedopracowanych przewidywaniach wypowiadanych przez egoistycznych technologicznych wizjonerów i futurystycznych teoriach, które wypowiadają co godzinę, uniemożliwi decydentom stawienie czoła wysoce politycznej naturze wyborów, jakie przed nimi stoją. Arendt martwiła się tym „z powodu ich wewnętrznej spójności. . . [takie teorie] mają działanie hipnotyczne; uśpili nasz zdrowy rozsądek ”. Ostateczna ironia współczesnego świata, który jest bardziej niż kiedykolwiek zależny od technologii, polega na tym, że w miarę jak technologia staje się coraz bardziej zintegrowana z życiem politycznym i społecznym, coraz mniej uwagi poświęca się społecznym i politycznym wymiarom samej technologii. Decydenci powinni opierać się wszelkim próbom wyprowadzenia polityki z technologii; po prostu nie mogą sobie pozwolić na poddanie się apolitycznej hipnozie, której obawiała się Arendt. Internet jest zbyt ważną siłą, aby go lekceważyć lub zlecać go konsultantom znającym się na rzeczy. Można nie być w stanie przewidzieć jego wpływu na konkretny kraj lub sytuację społeczną, ale głupotą byłoby zaprzeczanie, że jakiś wpływ jest nieunikniony. Zrozumienie, w jaki sposób różni interesariusze – obywatele, decydenci, fundacje, dziennikarze – mogą wpływać na sposób, w jaki rozwija się polityczna przyszłość technologii, jest kwintesencją pytania, przed jakim staje każda demokracja. Nie tylko polityka wykracza poza zakres analizy technologicznej; natura ludzka jest również poza jej zasięgiem. Głoszenie, że społeczeństwa weszły w nową erę i przyjęły nową ekonomię, nie czyni automatycznie natury ludzkiej bardziej plastyczną, ani też nie musi koniecznie prowadzić do powszechnego poszanowania wartości humanistycznych. Ludzie wciąż pożądają władzy i uznania, niezależnie od tego, czy gromadzą je, ubiegając się o urząd, czy zbierając znajomych na Facebooku. Jak ujął to James Carey, badacz mediów z Columbia University: „Nowy mężczyzna i kobieta nowej ery” wydaje się taką samą mieszaniną chciwości, dumy, arogancji i wrogości, z jaką spotykamy się zarówno w historii, jak i doświadczeniu ”. Technologia cały czas się zmienia; ludzka natura prawie nigdy. Fakt, że dobroczyńcy zwykle chcą dobrze, nie łagodzi katastrofalnych konsekwencji wynikających z ich niezdolności (lub po prostu braku ambicji) do angażowania się w szersze społeczne i polityczne wymiary technologii. Jak zauważył niemiecki psycholog Dietrich Dorner w The Logic of Failure, jego mistrzowskie wyjaśnienie, w jaki sposób zakorzenione psychologiczne uprzedzenia decydentów mogą pogłębić istniejące problemy i oślepić ich na znacznie bardziej szkodliwe konsekwencje proponowanych rozwiązań, „nie jest jasne, czy dobre intencje plus głupota lub złe intencje plus inteligencja wyrządziły światu więcej szkód ”. W rzeczywistości fakt, że mamy dobre intencje, powinien dawać nam tylko dodatkowe powody do skrupulatnej autoretrospekcji, ponieważ według Dornera „niekompetentni ludzie o dobrych intencjach rzadko cierpią z powodu wyrzutów sumienia, które czasami hamują działania kompetentnych ludzi o złych intencjach . ”

Audyt Mózgu Hackera : Państwa narodowe

Temat, który był wysoko sklasyfikowany zaledwie kilka lat temu, ale jest obecnie przedmiotem otwartej dyskusji, to zdolność i zamiar narodów do prowadzenia ofensywnych operacji cybernetycznych przeciwko sobie. Rozdział 10 szczegółowo omawia kilka większych i bardziej oczywistych zagrożeń, takich jak Rosja, Chiny i inne. Prawie wszystkie kraje łączą się z Internetem, a większość wie, że kontrola informacji za pośrednictwem sieci komputerowych może być znacznie potężniejszą bronią niż broń, statki czy pociski. Koszt prowadzenia wojny informacyjnej z większymi i bogatszymi krajami jest niezwykle niski, a dostęp łatwo znaleźć informacje o sposobach przeprowadzania ataków komputerowych. Wojna informacyjna nie zawsze jest destrukcyjna lub uciążliwa. Niektóre z najlepszych ataków cybernetycznych były skierowane przeciwko umysłom ludzi korzystających z systemów komputerowych, a nie przeciwko samym komputerom i sieciom. Zamiast fizycznie atakować infrastrukturę komunikacyjną lub przeprowadzać ataki złośliwego kodu na same komputery, ta klasa ataku ma na celu wpłynięcie na to, co osoba myśli lub robi po otrzymaniu informacji z systemu komputerowego lub sieci. Bezpośrednie ataki lub zakłócenia sieci szkieletowej cyberprzestrzeni spowodowałyby poważne problemy z działaniem infrastruktury krytycznej. Wyobraź sobie jednak chaos, który wyniknąłby z wprowadzenia fałszywych informacji do systemów kontroli cybernetycznej systemu dystrybucji energii. Przepływ energii elektrycznej w sieciach elektroenergetycznych steruje raczej uwarunkowaniami ekonomicznymi, a nie zapotrzebowaniem konsumentów. Zakłócenie wymiany i sprzedaży energii poprzez wprowadzenie fałszywych wartości energii do skomputeryzowanego systemu sprzedaży energii mogłoby mieć niezwykle poważny wpływ na równowagę i przepływ energii elektrycznej w krajowej sieci. Prawdopodobieństwo, że naród zaatakuje inny naród przy użyciu broni cybernetycznej jest bardzo niskie, głównie ze względu na prawdopodobieństwo, że atak może spowodować poważne skutki uboczne w ich własnych sieciach internetowych oraz z powodu możliwości szybkiego odwetu po wykryciu i przypisaniu ataku. . Jednak ilość potencjalnych szkód w infrastrukturze krytycznej jest zadziwiająco duża, jeśli naród zdecyduje się użyć Internetu jako ścieżki ataku. Z tego powodu właściciele i operatorzy infrastruktury muszą bezwzględnie chronić swoje systemy przed cyberatakiem i dysponować środkami do szybkiego przywrócenia działania w przypadku ataku.

Lean Customer Development : Po wystarczającej liczbie wywiadów przestajesz słyszeć rzeczy, które Cię zaskakują

Najlepszym wskaźnikiem, że skończyłeś, jest to, że nie słyszysz, jak ludzie mówią o zawiasach, które Cię zaskakują. Będziesz mieć pewność, że masz wystarczająco dobre informacje na temat typowych problemów, motywacji, frustracji i interesariuszy Twoich klientów. Zwykle potrzebowałem 15–20 wywiadów, aby mieć pewność, że problem i rozwiązanie mają potencjał. Między rekrutacją uczestników, przygotowywaniem pytań, robieniem notatek i podsumowywaniem, to około dwóch tygodni pracy. Może się to wydawać dużym wysiłkiem, ale jeśli dowiesz się, że możesz wyciąć jedną funkcję, już uzasadniłeś inwestycję w rozwój klienta. Ten proces może i powinien odbywać się równolegle z tworzeniem MVP. Jeden z moich ostatnich projektów rozwoju klientów obejmował poznanie usługi Yammer i tego, jak nasi klienci mierzą dzięki niej sukces. Wiedzieliśmy, że wielu klientów informuje swoich szefów o korzystaniu z usługi Yammer i sukcesach. (Każdy pracownik może założyć bezpłatną wewnętrzną sieć społecznościową Yammer dla swojej firmy bez pozwolenia odgórnego. W rezultacie zwolennicy usługi Yammer często prowadzą sprzedaż wewnętrzną kierownictwu, który musi dowiedzieć się więcej o jej wartości). nasze istniejące narzędzie do raportowania, które zbudowaliśmy w oparciu o to, „o co klientów pytano  ”w przeciwieństwie do kontrolowanych badań ich potrzeb i zachowań. Zanim zdecydowaliśmy się na stworzenie większej funkcjonalności, chciałem się upewnić, że w pełni zrozumieliśmy ich problemy, abyśmy mogli zapewnić bardziej efektywne rozwiązanie. W ciągu dwóch tygodni przeprowadziłem 22 krótkie wywiady z klientami. Podczas kilku ostatnich wywiadów nie słyszałem żadnych komentarzy, które byłyby zarówno nowe, jak i znaczące. Mógłbym śmiało poczynić pewne stwierdzenia:

  • Sposób, w jaki nasi klienci tworzą prezentacje raportów
  • Których interesariuszy musieli zadowolić
  • Jakie frustracje napotykali
  • Główne problemy, które wyjaśniły, dlaczego żądali pewnych zmiany w produktach

Na podstawie tych informacji byłem w stanie zidentyfikować, że kilka próśb było powiązanych z prawdziwymi problemami i zaleciłem, aby nie budować innych. Co ważniejsze, mogłem podsumować, czego nauczyłem się podczas wywiadów i podzielić się tym z naszymi klientami. Był to dodatkowy krok, który jest szczególnie pomocny w przypadku obecnych klientów. Zamknięcie tej pętli – pokazanie, że potraktowaliśmy ich obawy poważnie, zidentyfikowaliśmy ich problemy i wskazanie zmian, które wprowadziliśmy w odpowiedzi – wzmocniło nasze relacje z tymi klientami.

Ile Google wie o Tobie : Reklama

Reklama jest siłą napędową praktycznie wszystkich bezpłatnych narzędzi online. Reklama jest również sposobem śledzenia przeglądania stron internetowych w Internecie. Za każdym razem, gdy odwiedzasz witryny, które wyświetlają reklamy ze wspólnej sieci reklamowej, Twoje działania mogą być rejestrowane. Te dzienniki można następnie wykorzystać do tworzenia precyzyjnych profili, ułatwiających dostosowaną reklamę. Co ważne, analiza dziennika nie jest procesem statycznym. Na przykład firmy reklamowe aktywnie rozwijają technologie, aby przewidywać kolejne kroki ludzi. Biorąc pod uwagę popularność największych firm internetowych, ilość informacji, które mogą zebrać, jest oszałamiająca. Reklamy internetowe to wielki biznes, a niektóre z największych usług są oferowane przez Google, w tym AdSense, AdWords i DoubleClick. Jednak reklamy pojawiają się w wielu innych formach. Microsoft po cichu oferuje finansowaną z reklam wersję swojego pakietu biurowego Works.  Pudding Media, startup z siedzibą w San Jose, oferuje usługi telefoniczne z reklamami.  Google rozumie potencjał wzrostu reklamy. W 2007 roku firma ogłosiła, że ​​zapłaci 3,1 miliarda dolarów za nabycie DoubleClick, czołowego reklamodawcy internetowego, którego obecne szacowane przychody w tamtym czasie wyniosły 150 milionów dolarów. [8] Rok temu Yahoo! dokonał podobnego posunięcia na mniejszą skalę, nabywając globalną internetową sieć reklamową BlueLithium za około 300 milionów dolarów. W chwili pisania tego tekstu Yahoo! podobno rozważał zgodę na przenoszenie reklam wyszukiwania od Google, pośród potencjalnej próby wrogiego przejęcia przez Microsoft.  Chociaż obecnie nie można być tego pewnym na pewno, taka lojalność niesie ze sobą bardzo realny potencjał polegający na umożliwieniu Google gromadzenia wyszukiwanych haseł, tworzenia plików cookie i prowadzenia innych działań w oparciu o niezwykle dużą bazę użytkowników Yahoo! Nie popełnij błędu, a kluczowym elementem takich przejęć i sojuszy jest dostęp do danych użytkowników i zapewniane przez nie uprawnienia.

Uwaga: reklama internetowa to rozwijająca się branża, która wkracza na rynki tradycyjnych mediów. Na przykład firma Simmons, zajmująca się analizą mediów, stwierdziła, że ​​internetowe reklamy wideo są o 47% bardziej angażujące – a przez to skuteczniejsze – niż tradycyjne reklamy telewizyjne.

Wcześniejsze wpisy powinny był przekonać Cię, że użytkownicy podczas surfowania po sieci rozpraszają istotne i często osobiste informacje. Kiedy dziennikarka New York Times Louise Story zdecydowała się określić, jak dane osobowe są przechowywane przez duże firmy internetowe, zadała czterem dużym firmom internetowym jedno pytanie: „Czy możesz pokazać mi reklamę z moim imieniem i nazwiskiem?” Story zawiera następujące podsumowanie odpowiedzi.

Microsoft twierdzi, że może używać tylko imienia osoby. AOL i Yahoo! mogli używać pełnej nazwy, ale tylko w swoich witrynach, a nie w innych witrynach, w których umieszczają reklamy. Google nie jest tego pewien – prawdopodobnie mógłby, ale nie zna nazw większości swoich użytkowników.

Chociaż wyniki te same w sobie są wymowne, należy pamiętać, że są to oficjalne odpowiedzi udzielone reporterowi New York Timesa. Innymi słowy, są to opinie prawne na ten temat, a nie możliwości techniczne. To, co cztery firmy mają możliwości, to zupełnie inna sprawa. Sieci reklamowe to sieć, która umożliwia dużym firmom internetowym gromadzenie tych dokładnych informacji i wykorzystywanie ich do profilowania użytkowników, eksploracji danych i reklamy ukierunkowanej. Dzięki tej zdolności do agregowania i analizowania informacji o użytkownikach, kampanie reklamowe mogą podążać za użytkownikami, gdy przechodzą z niezależnych witryn. Być może napotkałeś tę technikę podczas zakupów online. Na przykład, jeśli szukałeś monitorów z płaskim panelem w witrynie X, kiedy przeskoczyłeś, aby odwiedzić witrynę Y, nisko i oto, pojawiły się reklamy monitorów z płaskim panelem. Firma Microsoft otwarcie promuje podejście „mapowania zaangażowania”, które ma na celu wyjść poza „przestarzały model„ ostatniego kliknięcia reklamy ”” poprzez zrozumienie, „w jaki sposób każda ekspozycja reklamy – czy to w sieci reklamowej, multimedialnej czy w wyszukiwarce, oglądana wielokrotnie w wielu witrynach i w wielu kanałach – wpłynęła na ostateczny zakup”.  Artykuł stwierdza również, że Microsoft zamierza wykorzystać dane dotyczące zachowania użytkownika przed kliknięciem reklamy, aby móc stwierdzić, że niezaznaczona reklama nadal robi wrażenie. Jeśli wierzyć artykułowi, Microsoft zamierza zestawić te informacje z wyszukiwanymi hasłami i witrynami odwiedzanymi w ciągu jednego lub kilku dni. Natychmiast nasuwają się dwa pytania. Skąd pochodzą te inne dane (i czy to zwykły zbieg okoliczności, że Microsoft stara się przejąć Yahoo! I inne firmy wyszukujące)? Teraz, gdy mówimy o utrzymywaniu zakładek długoterminowych zachowań użytkowników i stawianiu hipotez, dlaczego użytkownik zrobił to lub tamto, jakie inne rodzaje eksploracji danych otworzą to zalanie? Zasadniczo mówią: „Zamierzamy poświęcić wiele zasobów, aby obserwować, dokąd się udajesz i co widzisz w sieci”. Fakt, że Microsoft Windows jest najpopularniejszym systemem operacyjnym na Ziemi, tylko potęguje obawy. Prawo dotyczące reklamy internetowej i gromadzenia danych użytkowników jest wciąż niedojrzałe, więc reklamodawcy mają bardzo szerokie pole do działania. Na przykład amerykański sąd federalny orzekł, że reklamy wyświetlane przez wyszukiwarki są chronione jako wolność słowa przy podejmowaniu decyzji, jakie reklamy wyświetlić.

Zaufanie w Cyberspace : Nadmierne szyfrowanie

Problem outsourcingu zarządzania zasobami do usługodawców, którzy uczciwie świadczą swoje usługi, ale mogą być ciekawi, że treść jest przedmiotem zainteresowania w niedawnej przeszłości i zaproponowano wiele rozwiązań (Di Vimercati i in., 2007). Większość propozycji zakłada, że ​​dane są szyfrowane tylko jednym kluczem (Ceselli i in., 2005; Hacigumus i in., 2002). W takiej sytuacji zakłada się, że upoważnieni użytkownicy mają pełny wgląd w dane; lub w przypadku konieczności udostępnienia różnych widoków różnym użytkownikom, właściciel danych musi uczestniczyć w wykonywaniu zapytania, aby ewentualnie przefiltrować wynik dostawcy usług. Udział właściciela można zminimalizować poprzez selektywne szyfrowanie, w którym do szyfrowania różnych części danych używane są różne klucze. W scenariuszu outsourcingu wszystkie te propozycje w przypadku aktualizacji polityki autoryzacji wymagałyby ponownego szyfrowania zasobów. W pracy zaproponowano rozwiązanie, które rozwiązuje problemy związane z outsourcingiem, dzięki czemu outsourcing danych staje się skutecznym paradygmatem. Proponowane rozwiązanie koncentruje się na problemie definiowania i przypisywania kluczy użytkownikom poprzez wykorzystanie hierarchicznych schematów przypisywania kluczy (Akl i Taylor, 1983) oraz skutecznego wspierania zmian w polityce. Autorzy proponują rozwiązanie w trzech krokach: (1) zaproponowano formalny model bazowy dla prawidłowego stosowania selektywnego szyfrowania. Model umożliwia definicję polityki szyfrowania odpowiadającej polityce autoryzacji, która ma być egzekwowana na zasobach; (2) opierając się na modelu podstawowym, dwuwarstwowe podejście do wymuszania selektywnego szyfrowania bez żądania od właściciela ponownego zaszyfrowania zasobów za każdym razem, gdy następuje zmiana w polityce autoryzacji. Pierwsza warstwa szyfrowania jest wykonywana przez właściciela danych w momencie inicjalizacji, podczas gdy udostępnianie zasobu do outsourcingu, a druga warstwa szyfrowania jest wykonywana przez samego usługodawcę, aby zająć się dynamicznymi zmianami zasad. Zakłada się, że dwuwarstwowe szyfrowanie pozwala właścicielowi na outsourcing, poza przechowywaniem i rozpowszechnianiem zasobów, zarządzanie polityką autoryzacji, bez udostępniania danych usługodawcy; oraz (3) autorzy przedstawiają charakterystykę różnych poglądów na zasoby przez różnych użytkowników i scharakteryzują potencjalne ryzyko ujawnienia informacji w wyniku dynamicznych zmian polityki. Proponowane rozwiązanie wykorzystuje metodę wyprowadzenia klucza zaproponowaną przez Atallaha i innych w oparciu o definicję i obliczanie publicznych tokenów, które pozwalają na wyprowadzanie kluczy z innych kluczy.

Zalety. Proponowane rozwiązanie nie zastępuje obecnych propozycji, a raczej je uzupełnia, umożliwiając obsługę szyfrowania w selektywnej formie i łatwe wymuszanie dynamicznych zmian polityki.

Ograniczenia. Proponowana metoda nie ocenia, czy podejście to jest podatne na ataki ze strony użytkowników, którzy uzyskują dostęp do wszystkich informacji oferowanych przez serwer i przechowują je, czy też na ataki w ramach zmowy, w których różni użytkownicy łączą swoją wiedzę, aby uzyskać dostęp do zasobów, do których w innym przypadku nie mieliby dostępu.

Ciemna Strona Neta : Oswajanie nikczemnego autorytaryzmu

Rosnąca podaż rozwiązań technologicznych, a nawet społecznych, zakłada, że ​​można rozwiązać problem autorytaryzmu. Ale co, jeśli na początku jest to po prostu nierozwiązywalny problem? Zadanie tego pytania nie oznacza sugerowania, że ​​na świecie zawsze będzie zło i dyktatorzy; chodzi raczej o postawienie pytania, czy z perspektywy planowania polityki można kiedykolwiek znaleźć właściwą kombinację polityk i zachęt, które można by opisać jako „rozwiązanie”, a następnie zastosować w zupełnie innych środowiskach. W 1972 r. Horst Rittel i Melvin Webber, dwaj wpływowi teoretycy projektowania z Uniwersytetu Kalifornijskiego w Berkeley, opublikowali esej pod obiecującym tytułem „Dylematy w ogólnej teorii planowania”. W eseju, który szybko stał się przełomowym tekstem w teorii planowania, argumentowano, że wraz z upływem ery przemysłowej tradycyjne skupienie się współczesnego planisty na wydajności – wykonywaniu określonych zadań przy niewielkich nakładach zasobów – zostało zastąpione na wynikach, usidlając planistę w prawie nigdy nie kończącym się etycznym badaniu, czy wytworzone produkty były społecznie pożądane. Jednak rosnąca złożoność współczesnych społeczeństw utrudniała prowadzenie takich badań. Gdy planiści zaczęli „postrzegać procesy społeczne jako powiązania wiążące otwarte systemy w duże i wzajemnie połączone sieci systemów, tak że wyniki jednego z nich stają się danymi wejściowymi dla innych”, nie byli już pewni, „gdzie i jak [mają] interweniować, nawet jeśli [ zdarza się, że wiedzą, jakich celów [szukają] ”. W pewnym sensie sama złożoność współczesnego świata doprowadziła do paraliżu planistycznego, ponieważ same rozwiązania starszych problemów nieuchronnie stwarzają własne. To była przygnębiająca myśl. Niemniej jednak Rittel i Webber zaproponowali, aby zamiast tuszować rosnącą nieefektywność rozwiązań technologicznych i społecznych, planiści – i bardziej ogólnie decydenci – powinni stawić czoła tej ponurej rzeczywistości i przyznać, że żadne staranne planowanie nie rozwiąże wielu problemów, których szukali. zająć się. Aby lepiej zrozumieć szanse na sukces, zaproponowali rozróżnienie między problemami „niegodziwymi” i „oswojonymi”. Problemy łagodne lub łagodne można precyzyjnie zdefiniować i łatwo stwierdzić, kiedy zostały rozwiązane. Rozwiązania mogą być drogie, ale są nie jest niemożliwe i, biorąc pod uwagę odpowiednią kombinację zasobów, zwykle można je znaleźć. Zaprojektowanie samochodu, który spala mniej paliwa i próba wykonania mata w pięciu ruchach w szachach to dobre przykłady typowych problemów z opanowaniem. Z drugiej strony, złe problemy to bardziej wymagające intelektualnie. Trudno je zdefiniować – w rzeczywistości nie można ich zdefiniować, dopóki nie zostanie znalezione rozwiązanie. Ale nie mają też reguły zatrzymującej, więc trudno jest wiedzieć, kiedy to się stało. Ponadto każdy zły problem można rozważyć symptomem innego, „wyższego poziomu” problemu, a zatem należy się nim zająć na jak najwyższym możliwym poziomie, gdyż „jeśli… problem zostanie zaatakowany na zbyt niskim poziomie, to powodzenie rozwiązania może spowodować pogorszenie sytuacji, ponieważ poradzenie sobie z wyższymi problemami może stać się trudniejsze ”. Rozwiązania takich problemów nigdy nie są prawdziwe ani fałszywe, jak w szachach, ale raczej dobre lub złe. W związku z tym nigdy nie może być jednego „najlepszego” rozwiązania nikczemnego problemu, ponieważ „dobro” jest zbyt spornym terminem co gorsza, nie ma natychmiastowego ani ostatecznego testu skuteczności takich rozwiązań, ponieważ ich skutki uboczne mogą pojawić się po pewnym czasie. Ponadto każde takie rozwiązanie jest również jednorazową operacją. ucz się metodą prób i błędów, liczy się każda próba. W przeciwieństwie do przegranej partii szachowej, która rzadko ma konsekwencje w innych grach lub nie grających w szachy, nieudane rozwiązanie nikczemnego problemu ma długofalowe i w dużej mierze nieprzewidywalne konsekwencje daleko wykraczające poza pierwotny kontekst . Każde rozwiązanie, jak to ujęli autorzy, „pozostawia ślady, których nie można cofnąć”. Esej zawierał więcej niż taksonomię różnych problemów planistycznych. Zawierał również cenny przepis moralny: Rittel i Webber uważali, że zadaniem planisty nie jest porzucenie walki w rozczarowaniu, ale uznanie jej wyzwań i znalezienie sposobów na rozróżnienie między oswojonymi a niegodziwymi problemami, nie tylko dlatego, że jest to „moralnie nie do przyjęcia aby planista potraktował nikczemny problem tak, jakby był oswojony ”. Twierdzili, że planista, w przeciwieństwie do naukowca, nie ma prawa się mylić: „W świecie planowania. . . celem nie jest znalezienie prawdy, ale poprawa pewnych cech świata, w którym żyją ludzie. Planiści są odpowiedzialni za konsekwencje działań, które generują ”. To potężny imperatyw moralny. Chociaż Rittel i Webber napisali esej, mając na uwadze wysoce techniczną politykę wewnętrzną, każdy zainteresowany przyszłością promocji demokracji i ogólnie polityką zagraniczną powinien posłuchać ich rad. Współczesny autorytaryzm z samej swej konstytucji jest problemem niegodziwym, a nie oswojonym. Nie można go „rozwiązać” ani „wyreżyserować” za pomocą kilku linijek genialnego kodu komputerowego lub oszałamiającej aplikacji na iPhone’a. Największą przeszkodą w tej walce są inicjatywy skoncentrowane na Internecie, takie jak wolność w Internecie, ponieważ błędnie przedstawiają one złe problemy jako oswojone. W ten sposób pozwalają decydentom zapomnieć, że sam akt wyboru jednego rozwiązania zamiast drugiego niesie za sobą polityczne reperkusje; to nie jest zwykła gra w szachy, w którą grają. Ale chociaż trudno zaprzeczyć, że nikczemne problemy przeciwstawiają się łatwym rozwiązaniom, nie oznacza to, że niektóre rozwiązania nie byłyby bardziej skuteczne (lub przynajmniej mniej destrukcyjne) niż inne. Z tej perspektywy „wojna z autorytaryzmem” – lub jego młodszym cyfrowym rodzeństwem, „wojna o wolność Internetu” – jest tak samo błędna jak „wojna z terroryzmem”. Taka terminologia nie tylko maskuje nikczemny charakter wielu problemów związanych z autorytaryzmem, ukrywając niezliczone złożone powiązania między nimi, ale sugeruje – fałszywie – że taką wojnę można wygrać, jeśli zmobilizuje się tylko wystarczające zasoby. Takie uwydatnianie nie jest pomocne dla planisty polityki, który zamiast tego powinien starać się zrozumieć, jak dokładnie poszczególne nikczemne problemy odnoszą się do ich kontekstu i co można zrobić, aby je wyodrębnić i rozwiązać, jednocześnie kontrolując skutki uboczne. Ogólny nacisk jest zatem z dala od wspaniałych i retorycznych cech nieodłącznie związanych z wysoce niejednoznacznymi terminami, takimi jak „wolność w Internecie” – i skierowany w stronę drobiazgów i konkretu. Zakładając, że nikczemne problemy rzucone pod sztandar wolności w Internecie mogą zostać sprowadzone do oswojonych, również nie pomoże. Zachodni decydenci z pewnością mogą pracować nad podważeniem informacyjnej trójcy autorytaryzmu – propagandy, cenzury i inwigilacji – ale nie powinni tracić z oczu tego faktu. że wszyscy są ze sobą tak ściśle powiązani, że walcząc z jednym filarem, mogą w końcu wzmocnić dwa pozostałe. Nawet ich postrzeganie tej trójcy może być po prostu wytworem ich własnych ograniczeń poznawczych, a ich umysły przedstawiają raczej filary, z którymi mogą walczyć, niż te, z którymi powinni walczyć. Ponadto jest wysoce wątpliwe, czy niegodziwe problemy mogą zostać kiedykolwiek rozwiązane w skali globalnej; Decydenci mogą liczyć tylko na pewne lokalne osiągnięcia – najlepiej nie tylko retoryczne. Aby oprzeć się na słynnym rozróżnieniu dokonanym przez austriackiego filozofa Karla Poppera, decydenci z zasady nie powinni zajmować się utopijną inżynierią społeczną – ambitnymi, niejednoznacznymi i często wysoce abstrakcyjnymi próbami przebudowy świata według jakiegoś wielkiego planu – ale zamiast tego zadowalaj się fragmentaryczną inżynierią społeczną. Takie podejście może być mniej ambitne, ale często bardziej skuteczne; Działając na mniejszą skalę, decydenci mogą nadal być świadomi złożoności rzeczywistego świata oraz lepiej przewidywać i łagodzić niezamierzone konsekwencje.

Audyt Mózgu Hackera : Identyfikacja i charakterystyka zagrożenia cybernetycznego

Upublicznienie formalnej metodologii identyfikacji i charakterystyki cyberzagrożeń to nowy obszar dla Departamentu Obrony i rządu federalnego. Aż do późnych lat dziewięćdziesiątych, wszelkie dyskusje na temat zagranicznych zdolności do cyberofensywy, środków i technik stosowanych w celu uzyskania atrybutu cyberataku na komputery rządowe lub faktu, że miał miejsce nawet cyberatak na rządowe sieci komputerowe pozostał utajniony. Wraz z utworzeniem NIPC i JTF-CND w 1998 r. Ten sposób myślenia zaczął się zmieniać. Obie organizacje zaczęły badać i analizować konkretne typy grup lub organizacji, które mogą prawdopodobnie przeprowadzić atak na infrastrukturę krytyczną lub rządowe sieci komputerowe. Okazało się, że na poziomie krajowym ponad 100 krajów miało możliwości prowadzenia operacji informacyjnych, a co najmniej 20 Stany Zjednoczone w przeszłości, a kilka z nich miało możliwości równe naszym. Odkryli również, że dziesiątki tysięcy witryn internetowych zawierały narzędzia cybernetyczne przydatne do cyberataku, a miliony użytkowników komputerów posiadały umiejętności pozwalające na ich wykorzystanie w taki sposób, jak spowodować znaczne szkody w komponentach i mechanizmach Internetu. Odkrycia potwierdziły wcześniejsze badania, że ​​możliwy był przybliżony ranking istniejących grup zagrożeń, od najmniej powszechnych pod względem liczby, ale najbardziej zdolnych do spowodowania szkód, do najczęstszych, ale najmniej zdolnych do spowodowania rozległych szkód:

* Państwa narodowe (najmniej powszechne, najbardziej narażone na uszkodzenia)

* Terroryści

* Szpiedzy, w tym szpiegostwo korporacyjne

*Przestępczość zorganizowana

* Wtajemniczeni

* Hakerzy (najczęściej, najmniejszy potencjał szkód)

UWAGA: Kolejnym odkryciem było to, że wszystkie sześć z tych grup zarówno wzrastało liczebnie, jak i zdolności. Niestety, organizacje odkryły również, że społeczność defensywna nie rośnie ani nie staje się bardziej biegła w operacjach obronnych w podobnym tempie.

Wszystkie te grupy reprezentują nakładające się zbiory aktorów zagrożeń, a uzyskanie przypisania konkretnie temu, kto lub jaka organizacja jest odpowiedzialna za dany atak, jest niezwykle trudne. Systemy wykrywania włamań, dzienniki zapory i oprogramowanie antywirusowe nie podają administratorowi systemu nazwy intruza. Nastoletni haker lub wykwalifikowany zagraniczny rząd może aktywować atak przepełnienia bufora na podatną aplikację, która powoduje, że ukryta powłoka roota nasłuchuje na wysokim porcie TCP. Techniki i narzędzia używane przez wszystkie sześć z tych grup są zazwyczaj takie same, ale motywacje i intencje są bardzo zróżnicowane

Lean Customer Development : Rozwój klienta na imprezie

Abramson przyniósł te dane na Tour of California 2010, gdzie był w stanie zebrać około 30 właścicieli, menadżerów i lekarzy zespołów kolarskich. „Od razu stało się jasne, że żadna z tych osób nie rozmawiała ze sobą o problemach z urazami!” mówi Abramson. Podczas tego spotkania „przeżyliśmy kilka a-ha chwil. Było jasne, że musimy wszystkich zebrać. Postanowiliśmy zorganizować konferencję medyczną. Nasza rozmowa odbyła się w maju i zdecydowaliśmy się przeprowadzić naszą konferencję w listopadzie. Aby zrozumieć, jakie to było szalone, zaplanowanie konferencji akredytowanych w zakresie ustawicznego kształcenia medycznego (CME) zajmuje zwykle rok ”.

Czy rozwój klienta może działać w służbie zdrowia?

Abramson częściowo się z tym zgadza dla tych, którzy są sceptyczni co do rozwoju klientów w dziedzinie opieki zdrowotnej. „Sposoby na rozwój klientów nie działają. Kontakt z lekarzami jest praktycznie niemożliwy. Każdy walczy o ich uwagę – farmaceutyczni przedstawiciele, sprzedawcy EMR, pacjenci. Muszą mieć ceglaną ścianę, która ochroni ich przed rozproszeniem. Nie udało nam się zadzwonić do recepcjonistów ”. Rada Abramsona: „Można zacząć od czegoś małego”. Podczas gdy typowe konferencje CME mają setki lub tysiące uczestników, Medicine of Cycling rozpoczęła się z 40. Zamiast kilkudziesięciu prelegentów było ich 10. „Zaprosiliśmy najlepszych ludzi, których znaliśmy poprzez bezpośrednie kontakty rowerowe, a oni pomogli w rozpowszechnianiu informacji. Zaprosiliśmy ludzi, o których wiedzieliśmy, że odczuwają największy ból z powodu tego problemu – lekarzy z Tour of California, lekarzy zespołu Garmina, lekarzy Komitetu Olimpijskiego USA – a lekarze zespołowi znają innych lekarzy ”.

Hipoteza potwierdzona!

Firma Medicine of Cycling była w stanie zweryfikować swoją początkową hipotezę – dzięki wspólnej pracy możemy sprawić, że rowerzyści będą zdrowi i szybciej wrócą na rowery – dość szybko. „Ta weryfikacja była produktem ubocznym zgromadzenia wszystkich właściwych ludzi w tym samym pomieszczeniu” – mówi Abramson. Od tego czasu organizacja opiera się na stałych opiniach członków, aby nadal rozwijać produkty, wprowadzając profesjonalne członkostwa, publikując wytyczne dotyczące typowych urazów rowerowych i ustanawiając standardy opieki. Idą na czwartą doroczną konferencję.

Problem z kurczakiem i jajkiem: na rynku dwustronnym, co jest pierwsze?

Jeśli zajmujesz się rozwojem klienta z wieloma interesariuszami, czy powinieneś najpierw porozmawiać z jednym docelowym segmentem klientów, a potem z drugim? A może powinieneś zmieniać? LaunchBit, startup obsługujący rynek dwustronny, zweryfikował swoje pomysły poprzez rozwój klientów. Firma, sieć reklamowa dla poczty elektronicznej, musiała zrozumieć potrzeby zarówno marketerów online, jak i wydawców treści. CEO Elizabeth Yin wyjaśnia: „Trudno jest poradzić sobie z dwustronnym rynkiem. Ludzie mówią „najpierw przejdź jedną stronę, a potem użyj jej, aby dostać się na drugą stronę”, ale takie podejście nie było dla nas możliwe ”. „Zaczęliśmy od zbierania sześciu wydawców i dwóch reklamodawców” – powiedział Yin. „Obaj reklamodawcy byli gotowi przetestować nowe zasoby reklamowe, więc chcieli skorzystać z naszego MVP minimalnych kampanii reklamowych. Sześciu wydawców również było zainteresowanych przetestowaniem pomysłu zarabiania na swoich biuletynach. Tak więc na początku mieliśmy niewielką liczbę uczestników z obu stron korzystających z MVP. Wszystko zorganizowaliśmy jako eksperyment. To działało dla ludzi którzy lubią eksperymentować z nowymi pomysłami. Gdy te wczesne eksperymenty zakończyły się sukcesem, mogliśmy rozszerzyć obie grupy. Zaczęliśmy nabierać pewnej skali, co sprawiło, że nasze liczby wyglądały bardziej interesująco dla potencjalnych klientów, którzy nie czuli się dobrze z eksperymentami ”. Trudno jest przewidzieć, z kim najlepiej przeprowadzić rozmowę w pierwszej kolejności, więc nie daj się zbytnio przejmować tym. Wskocz i rozpocznij rozmowę kwalifikacyjną. Po kilku wywiadach zapewne będziesz miał dobre wyczucie, w jaki sposób najbardziej możliwe i praktyczne jest wysłuchanie wszystkich zainteresowanych stron, którym służysz. LaunchBit był w stanie zidentyfikować bolesne problemy dla każdej strony. Marketerzy nie chcieli zawierać jednorazowych umów dotyczących rozwoju biznesu, aby reklamować się w biuletynach. LaunchBit dałby marketerom możliwość kierowania reklam na wiele biuletynów za pomocą jednego zakupu, co przyniosło im korzyści. Wydawcy treści nie chcieli wyświetlać banerów reklamowych, nawet jeśli zarabiali, z powodu obaw, że zraziliby czytelników. LaunchBit zmienił format reklam na reklamy tekstowe, aby zadowolić wydawców – a bez wydawców nie mieliby oni produktu dla marketerów. „Zrozumienie sposobu myślenia zarówno [wydawców, jak i sprzedawców] jest bardzo ważne” – mówi Yin. „To naprawdę ważne, aby mieć stały puls na temat tego, co myślą klienci. Kontynuujemy iterację w oparciu o rozmowy z wydawcami i marketerami, aby sprostać ich potrzebom ”.