Lean Customer Development : Po wystarczającej liczbie wywiadów przestajesz słyszeć rzeczy, które Cię zaskakują

Najlepszym wskaźnikiem, że skończyłeś, jest to, że nie słyszysz, jak ludzie mówią o zawiasach, które Cię zaskakują. Będziesz mieć pewność, że masz wystarczająco dobre informacje na temat typowych problemów, motywacji, frustracji i interesariuszy Twoich klientów. Zwykle potrzebowałem 15–20 wywiadów, aby mieć pewność, że problem i rozwiązanie mają potencjał. Między rekrutacją uczestników, przygotowywaniem pytań, robieniem notatek i podsumowywaniem, to około dwóch tygodni pracy. Może się to wydawać dużym wysiłkiem, ale jeśli dowiesz się, że możesz wyciąć jedną funkcję, już uzasadniłeś inwestycję w rozwój klienta. Ten proces może i powinien odbywać się równolegle z tworzeniem MVP. Jeden z moich ostatnich projektów rozwoju klientów obejmował poznanie usługi Yammer i tego, jak nasi klienci mierzą dzięki niej sukces. Wiedzieliśmy, że wielu klientów informuje swoich szefów o korzystaniu z usługi Yammer i sukcesach. (Każdy pracownik może założyć bezpłatną wewnętrzną sieć społecznościową Yammer dla swojej firmy bez pozwolenia odgórnego. W rezultacie zwolennicy usługi Yammer często prowadzą sprzedaż wewnętrzną kierownictwu, który musi dowiedzieć się więcej o jej wartości). nasze istniejące narzędzie do raportowania, które zbudowaliśmy w oparciu o to, „o co klientów pytano  ”w przeciwieństwie do kontrolowanych badań ich potrzeb i zachowań. Zanim zdecydowaliśmy się na stworzenie większej funkcjonalności, chciałem się upewnić, że w pełni zrozumieliśmy ich problemy, abyśmy mogli zapewnić bardziej efektywne rozwiązanie. W ciągu dwóch tygodni przeprowadziłem 22 krótkie wywiady z klientami. Podczas kilku ostatnich wywiadów nie słyszałem żadnych komentarzy, które byłyby zarówno nowe, jak i znaczące. Mógłbym śmiało poczynić pewne stwierdzenia:

  • Sposób, w jaki nasi klienci tworzą prezentacje raportów
  • Których interesariuszy musieli zadowolić
  • Jakie frustracje napotykali
  • Główne problemy, które wyjaśniły, dlaczego żądali pewnych zmiany w produktach

Na podstawie tych informacji byłem w stanie zidentyfikować, że kilka próśb było powiązanych z prawdziwymi problemami i zaleciłem, aby nie budować innych. Co ważniejsze, mogłem podsumować, czego nauczyłem się podczas wywiadów i podzielić się tym z naszymi klientami. Był to dodatkowy krok, który jest szczególnie pomocny w przypadku obecnych klientów. Zamknięcie tej pętli – pokazanie, że potraktowaliśmy ich obawy poważnie, zidentyfikowaliśmy ich problemy i wskazanie zmian, które wprowadziliśmy w odpowiedzi – wzmocniło nasze relacje z tymi klientami.

Ile Google wie o Tobie : Reklama

Reklama jest siłą napędową praktycznie wszystkich bezpłatnych narzędzi online. Reklama jest również sposobem śledzenia przeglądania stron internetowych w Internecie. Za każdym razem, gdy odwiedzasz witryny, które wyświetlają reklamy ze wspólnej sieci reklamowej, Twoje działania mogą być rejestrowane. Te dzienniki można następnie wykorzystać do tworzenia precyzyjnych profili, ułatwiających dostosowaną reklamę. Co ważne, analiza dziennika nie jest procesem statycznym. Na przykład firmy reklamowe aktywnie rozwijają technologie, aby przewidywać kolejne kroki ludzi. Biorąc pod uwagę popularność największych firm internetowych, ilość informacji, które mogą zebrać, jest oszałamiająca. Reklamy internetowe to wielki biznes, a niektóre z największych usług są oferowane przez Google, w tym AdSense, AdWords i DoubleClick. Jednak reklamy pojawiają się w wielu innych formach. Microsoft po cichu oferuje finansowaną z reklam wersję swojego pakietu biurowego Works.  Pudding Media, startup z siedzibą w San Jose, oferuje usługi telefoniczne z reklamami.  Google rozumie potencjał wzrostu reklamy. W 2007 roku firma ogłosiła, że ​​zapłaci 3,1 miliarda dolarów za nabycie DoubleClick, czołowego reklamodawcy internetowego, którego obecne szacowane przychody w tamtym czasie wyniosły 150 milionów dolarów. [8] Rok temu Yahoo! dokonał podobnego posunięcia na mniejszą skalę, nabywając globalną internetową sieć reklamową BlueLithium za około 300 milionów dolarów. W chwili pisania tego tekstu Yahoo! podobno rozważał zgodę na przenoszenie reklam wyszukiwania od Google, pośród potencjalnej próby wrogiego przejęcia przez Microsoft.  Chociaż obecnie nie można być tego pewnym na pewno, taka lojalność niesie ze sobą bardzo realny potencjał polegający na umożliwieniu Google gromadzenia wyszukiwanych haseł, tworzenia plików cookie i prowadzenia innych działań w oparciu o niezwykle dużą bazę użytkowników Yahoo! Nie popełnij błędu, a kluczowym elementem takich przejęć i sojuszy jest dostęp do danych użytkowników i zapewniane przez nie uprawnienia.

Uwaga: reklama internetowa to rozwijająca się branża, która wkracza na rynki tradycyjnych mediów. Na przykład firma Simmons, zajmująca się analizą mediów, stwierdziła, że ​​internetowe reklamy wideo są o 47% bardziej angażujące – a przez to skuteczniejsze – niż tradycyjne reklamy telewizyjne.

Wcześniejsze wpisy powinny był przekonać Cię, że użytkownicy podczas surfowania po sieci rozpraszają istotne i często osobiste informacje. Kiedy dziennikarka New York Times Louise Story zdecydowała się określić, jak dane osobowe są przechowywane przez duże firmy internetowe, zadała czterem dużym firmom internetowym jedno pytanie: „Czy możesz pokazać mi reklamę z moim imieniem i nazwiskiem?” Story zawiera następujące podsumowanie odpowiedzi.

Microsoft twierdzi, że może używać tylko imienia osoby. AOL i Yahoo! mogli używać pełnej nazwy, ale tylko w swoich witrynach, a nie w innych witrynach, w których umieszczają reklamy. Google nie jest tego pewien – prawdopodobnie mógłby, ale nie zna nazw większości swoich użytkowników.

Chociaż wyniki te same w sobie są wymowne, należy pamiętać, że są to oficjalne odpowiedzi udzielone reporterowi New York Timesa. Innymi słowy, są to opinie prawne na ten temat, a nie możliwości techniczne. To, co cztery firmy mają możliwości, to zupełnie inna sprawa. Sieci reklamowe to sieć, która umożliwia dużym firmom internetowym gromadzenie tych dokładnych informacji i wykorzystywanie ich do profilowania użytkowników, eksploracji danych i reklamy ukierunkowanej. Dzięki tej zdolności do agregowania i analizowania informacji o użytkownikach, kampanie reklamowe mogą podążać za użytkownikami, gdy przechodzą z niezależnych witryn. Być może napotkałeś tę technikę podczas zakupów online. Na przykład, jeśli szukałeś monitorów z płaskim panelem w witrynie X, kiedy przeskoczyłeś, aby odwiedzić witrynę Y, nisko i oto, pojawiły się reklamy monitorów z płaskim panelem. Firma Microsoft otwarcie promuje podejście „mapowania zaangażowania”, które ma na celu wyjść poza „przestarzały model„ ostatniego kliknięcia reklamy ”” poprzez zrozumienie, „w jaki sposób każda ekspozycja reklamy – czy to w sieci reklamowej, multimedialnej czy w wyszukiwarce, oglądana wielokrotnie w wielu witrynach i w wielu kanałach – wpłynęła na ostateczny zakup”.  Artykuł stwierdza również, że Microsoft zamierza wykorzystać dane dotyczące zachowania użytkownika przed kliknięciem reklamy, aby móc stwierdzić, że niezaznaczona reklama nadal robi wrażenie. Jeśli wierzyć artykułowi, Microsoft zamierza zestawić te informacje z wyszukiwanymi hasłami i witrynami odwiedzanymi w ciągu jednego lub kilku dni. Natychmiast nasuwają się dwa pytania. Skąd pochodzą te inne dane (i czy to zwykły zbieg okoliczności, że Microsoft stara się przejąć Yahoo! I inne firmy wyszukujące)? Teraz, gdy mówimy o utrzymywaniu zakładek długoterminowych zachowań użytkowników i stawianiu hipotez, dlaczego użytkownik zrobił to lub tamto, jakie inne rodzaje eksploracji danych otworzą to zalanie? Zasadniczo mówią: „Zamierzamy poświęcić wiele zasobów, aby obserwować, dokąd się udajesz i co widzisz w sieci”. Fakt, że Microsoft Windows jest najpopularniejszym systemem operacyjnym na Ziemi, tylko potęguje obawy. Prawo dotyczące reklamy internetowej i gromadzenia danych użytkowników jest wciąż niedojrzałe, więc reklamodawcy mają bardzo szerokie pole do działania. Na przykład amerykański sąd federalny orzekł, że reklamy wyświetlane przez wyszukiwarki są chronione jako wolność słowa przy podejmowaniu decyzji, jakie reklamy wyświetlić.

Zaufanie w Cyberspace : Nadmierne szyfrowanie

Problem outsourcingu zarządzania zasobami do usługodawców, którzy uczciwie świadczą swoje usługi, ale mogą być ciekawi, że treść jest przedmiotem zainteresowania w niedawnej przeszłości i zaproponowano wiele rozwiązań (Di Vimercati i in., 2007). Większość propozycji zakłada, że ​​dane są szyfrowane tylko jednym kluczem (Ceselli i in., 2005; Hacigumus i in., 2002). W takiej sytuacji zakłada się, że upoważnieni użytkownicy mają pełny wgląd w dane; lub w przypadku konieczności udostępnienia różnych widoków różnym użytkownikom, właściciel danych musi uczestniczyć w wykonywaniu zapytania, aby ewentualnie przefiltrować wynik dostawcy usług. Udział właściciela można zminimalizować poprzez selektywne szyfrowanie, w którym do szyfrowania różnych części danych używane są różne klucze. W scenariuszu outsourcingu wszystkie te propozycje w przypadku aktualizacji polityki autoryzacji wymagałyby ponownego szyfrowania zasobów. W pracy zaproponowano rozwiązanie, które rozwiązuje problemy związane z outsourcingiem, dzięki czemu outsourcing danych staje się skutecznym paradygmatem. Proponowane rozwiązanie koncentruje się na problemie definiowania i przypisywania kluczy użytkownikom poprzez wykorzystanie hierarchicznych schematów przypisywania kluczy (Akl i Taylor, 1983) oraz skutecznego wspierania zmian w polityce. Autorzy proponują rozwiązanie w trzech krokach: (1) zaproponowano formalny model bazowy dla prawidłowego stosowania selektywnego szyfrowania. Model umożliwia definicję polityki szyfrowania odpowiadającej polityce autoryzacji, która ma być egzekwowana na zasobach; (2) opierając się na modelu podstawowym, dwuwarstwowe podejście do wymuszania selektywnego szyfrowania bez żądania od właściciela ponownego zaszyfrowania zasobów za każdym razem, gdy następuje zmiana w polityce autoryzacji. Pierwsza warstwa szyfrowania jest wykonywana przez właściciela danych w momencie inicjalizacji, podczas gdy udostępnianie zasobu do outsourcingu, a druga warstwa szyfrowania jest wykonywana przez samego usługodawcę, aby zająć się dynamicznymi zmianami zasad. Zakłada się, że dwuwarstwowe szyfrowanie pozwala właścicielowi na outsourcing, poza przechowywaniem i rozpowszechnianiem zasobów, zarządzanie polityką autoryzacji, bez udostępniania danych usługodawcy; oraz (3) autorzy przedstawiają charakterystykę różnych poglądów na zasoby przez różnych użytkowników i scharakteryzują potencjalne ryzyko ujawnienia informacji w wyniku dynamicznych zmian polityki. Proponowane rozwiązanie wykorzystuje metodę wyprowadzenia klucza zaproponowaną przez Atallaha i innych w oparciu o definicję i obliczanie publicznych tokenów, które pozwalają na wyprowadzanie kluczy z innych kluczy.

Zalety. Proponowane rozwiązanie nie zastępuje obecnych propozycji, a raczej je uzupełnia, umożliwiając obsługę szyfrowania w selektywnej formie i łatwe wymuszanie dynamicznych zmian polityki.

Ograniczenia. Proponowana metoda nie ocenia, czy podejście to jest podatne na ataki ze strony użytkowników, którzy uzyskują dostęp do wszystkich informacji oferowanych przez serwer i przechowują je, czy też na ataki w ramach zmowy, w których różni użytkownicy łączą swoją wiedzę, aby uzyskać dostęp do zasobów, do których w innym przypadku nie mieliby dostępu.

Ciemna Strona Neta : Oswajanie nikczemnego autorytaryzmu

Rosnąca podaż rozwiązań technologicznych, a nawet społecznych, zakłada, że ​​można rozwiązać problem autorytaryzmu. Ale co, jeśli na początku jest to po prostu nierozwiązywalny problem? Zadanie tego pytania nie oznacza sugerowania, że ​​na świecie zawsze będzie zło i dyktatorzy; chodzi raczej o postawienie pytania, czy z perspektywy planowania polityki można kiedykolwiek znaleźć właściwą kombinację polityk i zachęt, które można by opisać jako „rozwiązanie”, a następnie zastosować w zupełnie innych środowiskach. W 1972 r. Horst Rittel i Melvin Webber, dwaj wpływowi teoretycy projektowania z Uniwersytetu Kalifornijskiego w Berkeley, opublikowali esej pod obiecującym tytułem „Dylematy w ogólnej teorii planowania”. W eseju, który szybko stał się przełomowym tekstem w teorii planowania, argumentowano, że wraz z upływem ery przemysłowej tradycyjne skupienie się współczesnego planisty na wydajności – wykonywaniu określonych zadań przy niewielkich nakładach zasobów – zostało zastąpione na wynikach, usidlając planistę w prawie nigdy nie kończącym się etycznym badaniu, czy wytworzone produkty były społecznie pożądane. Jednak rosnąca złożoność współczesnych społeczeństw utrudniała prowadzenie takich badań. Gdy planiści zaczęli „postrzegać procesy społeczne jako powiązania wiążące otwarte systemy w duże i wzajemnie połączone sieci systemów, tak że wyniki jednego z nich stają się danymi wejściowymi dla innych”, nie byli już pewni, „gdzie i jak [mają] interweniować, nawet jeśli [ zdarza się, że wiedzą, jakich celów [szukają] ”. W pewnym sensie sama złożoność współczesnego świata doprowadziła do paraliżu planistycznego, ponieważ same rozwiązania starszych problemów nieuchronnie stwarzają własne. To była przygnębiająca myśl. Niemniej jednak Rittel i Webber zaproponowali, aby zamiast tuszować rosnącą nieefektywność rozwiązań technologicznych i społecznych, planiści – i bardziej ogólnie decydenci – powinni stawić czoła tej ponurej rzeczywistości i przyznać, że żadne staranne planowanie nie rozwiąże wielu problemów, których szukali. zająć się. Aby lepiej zrozumieć szanse na sukces, zaproponowali rozróżnienie między problemami „niegodziwymi” i „oswojonymi”. Problemy łagodne lub łagodne można precyzyjnie zdefiniować i łatwo stwierdzić, kiedy zostały rozwiązane. Rozwiązania mogą być drogie, ale są nie jest niemożliwe i, biorąc pod uwagę odpowiednią kombinację zasobów, zwykle można je znaleźć. Zaprojektowanie samochodu, który spala mniej paliwa i próba wykonania mata w pięciu ruchach w szachach to dobre przykłady typowych problemów z opanowaniem. Z drugiej strony, złe problemy to bardziej wymagające intelektualnie. Trudno je zdefiniować – w rzeczywistości nie można ich zdefiniować, dopóki nie zostanie znalezione rozwiązanie. Ale nie mają też reguły zatrzymującej, więc trudno jest wiedzieć, kiedy to się stało. Ponadto każdy zły problem można rozważyć symptomem innego, „wyższego poziomu” problemu, a zatem należy się nim zająć na jak najwyższym możliwym poziomie, gdyż „jeśli… problem zostanie zaatakowany na zbyt niskim poziomie, to powodzenie rozwiązania może spowodować pogorszenie sytuacji, ponieważ poradzenie sobie z wyższymi problemami może stać się trudniejsze ”. Rozwiązania takich problemów nigdy nie są prawdziwe ani fałszywe, jak w szachach, ale raczej dobre lub złe. W związku z tym nigdy nie może być jednego „najlepszego” rozwiązania nikczemnego problemu, ponieważ „dobro” jest zbyt spornym terminem co gorsza, nie ma natychmiastowego ani ostatecznego testu skuteczności takich rozwiązań, ponieważ ich skutki uboczne mogą pojawić się po pewnym czasie. Ponadto każde takie rozwiązanie jest również jednorazową operacją. ucz się metodą prób i błędów, liczy się każda próba. W przeciwieństwie do przegranej partii szachowej, która rzadko ma konsekwencje w innych grach lub nie grających w szachy, nieudane rozwiązanie nikczemnego problemu ma długofalowe i w dużej mierze nieprzewidywalne konsekwencje daleko wykraczające poza pierwotny kontekst . Każde rozwiązanie, jak to ujęli autorzy, „pozostawia ślady, których nie można cofnąć”. Esej zawierał więcej niż taksonomię różnych problemów planistycznych. Zawierał również cenny przepis moralny: Rittel i Webber uważali, że zadaniem planisty nie jest porzucenie walki w rozczarowaniu, ale uznanie jej wyzwań i znalezienie sposobów na rozróżnienie między oswojonymi a niegodziwymi problemami, nie tylko dlatego, że jest to „moralnie nie do przyjęcia aby planista potraktował nikczemny problem tak, jakby był oswojony ”. Twierdzili, że planista, w przeciwieństwie do naukowca, nie ma prawa się mylić: „W świecie planowania. . . celem nie jest znalezienie prawdy, ale poprawa pewnych cech świata, w którym żyją ludzie. Planiści są odpowiedzialni za konsekwencje działań, które generują ”. To potężny imperatyw moralny. Chociaż Rittel i Webber napisali esej, mając na uwadze wysoce techniczną politykę wewnętrzną, każdy zainteresowany przyszłością promocji demokracji i ogólnie polityką zagraniczną powinien posłuchać ich rad. Współczesny autorytaryzm z samej swej konstytucji jest problemem niegodziwym, a nie oswojonym. Nie można go „rozwiązać” ani „wyreżyserować” za pomocą kilku linijek genialnego kodu komputerowego lub oszałamiającej aplikacji na iPhone’a. Największą przeszkodą w tej walce są inicjatywy skoncentrowane na Internecie, takie jak wolność w Internecie, ponieważ błędnie przedstawiają one złe problemy jako oswojone. W ten sposób pozwalają decydentom zapomnieć, że sam akt wyboru jednego rozwiązania zamiast drugiego niesie za sobą polityczne reperkusje; to nie jest zwykła gra w szachy, w którą grają. Ale chociaż trudno zaprzeczyć, że nikczemne problemy przeciwstawiają się łatwym rozwiązaniom, nie oznacza to, że niektóre rozwiązania nie byłyby bardziej skuteczne (lub przynajmniej mniej destrukcyjne) niż inne. Z tej perspektywy „wojna z autorytaryzmem” – lub jego młodszym cyfrowym rodzeństwem, „wojna o wolność Internetu” – jest tak samo błędna jak „wojna z terroryzmem”. Taka terminologia nie tylko maskuje nikczemny charakter wielu problemów związanych z autorytaryzmem, ukrywając niezliczone złożone powiązania między nimi, ale sugeruje – fałszywie – że taką wojnę można wygrać, jeśli zmobilizuje się tylko wystarczające zasoby. Takie uwydatnianie nie jest pomocne dla planisty polityki, który zamiast tego powinien starać się zrozumieć, jak dokładnie poszczególne nikczemne problemy odnoszą się do ich kontekstu i co można zrobić, aby je wyodrębnić i rozwiązać, jednocześnie kontrolując skutki uboczne. Ogólny nacisk jest zatem z dala od wspaniałych i retorycznych cech nieodłącznie związanych z wysoce niejednoznacznymi terminami, takimi jak „wolność w Internecie” – i skierowany w stronę drobiazgów i konkretu. Zakładając, że nikczemne problemy rzucone pod sztandar wolności w Internecie mogą zostać sprowadzone do oswojonych, również nie pomoże. Zachodni decydenci z pewnością mogą pracować nad podważeniem informacyjnej trójcy autorytaryzmu – propagandy, cenzury i inwigilacji – ale nie powinni tracić z oczu tego faktu. że wszyscy są ze sobą tak ściśle powiązani, że walcząc z jednym filarem, mogą w końcu wzmocnić dwa pozostałe. Nawet ich postrzeganie tej trójcy może być po prostu wytworem ich własnych ograniczeń poznawczych, a ich umysły przedstawiają raczej filary, z którymi mogą walczyć, niż te, z którymi powinni walczyć. Ponadto jest wysoce wątpliwe, czy niegodziwe problemy mogą zostać kiedykolwiek rozwiązane w skali globalnej; Decydenci mogą liczyć tylko na pewne lokalne osiągnięcia – najlepiej nie tylko retoryczne. Aby oprzeć się na słynnym rozróżnieniu dokonanym przez austriackiego filozofa Karla Poppera, decydenci z zasady nie powinni zajmować się utopijną inżynierią społeczną – ambitnymi, niejednoznacznymi i często wysoce abstrakcyjnymi próbami przebudowy świata według jakiegoś wielkiego planu – ale zamiast tego zadowalaj się fragmentaryczną inżynierią społeczną. Takie podejście może być mniej ambitne, ale często bardziej skuteczne; Działając na mniejszą skalę, decydenci mogą nadal być świadomi złożoności rzeczywistego świata oraz lepiej przewidywać i łagodzić niezamierzone konsekwencje.

Audyt Mózgu Hackera : Identyfikacja i charakterystyka zagrożenia cybernetycznego

Upublicznienie formalnej metodologii identyfikacji i charakterystyki cyberzagrożeń to nowy obszar dla Departamentu Obrony i rządu federalnego. Aż do późnych lat dziewięćdziesiątych, wszelkie dyskusje na temat zagranicznych zdolności do cyberofensywy, środków i technik stosowanych w celu uzyskania atrybutu cyberataku na komputery rządowe lub faktu, że miał miejsce nawet cyberatak na rządowe sieci komputerowe pozostał utajniony. Wraz z utworzeniem NIPC i JTF-CND w 1998 r. Ten sposób myślenia zaczął się zmieniać. Obie organizacje zaczęły badać i analizować konkretne typy grup lub organizacji, które mogą prawdopodobnie przeprowadzić atak na infrastrukturę krytyczną lub rządowe sieci komputerowe. Okazało się, że na poziomie krajowym ponad 100 krajów miało możliwości prowadzenia operacji informacyjnych, a co najmniej 20 Stany Zjednoczone w przeszłości, a kilka z nich miało możliwości równe naszym. Odkryli również, że dziesiątki tysięcy witryn internetowych zawierały narzędzia cybernetyczne przydatne do cyberataku, a miliony użytkowników komputerów posiadały umiejętności pozwalające na ich wykorzystanie w taki sposób, jak spowodować znaczne szkody w komponentach i mechanizmach Internetu. Odkrycia potwierdziły wcześniejsze badania, że ​​możliwy był przybliżony ranking istniejących grup zagrożeń, od najmniej powszechnych pod względem liczby, ale najbardziej zdolnych do spowodowania szkód, do najczęstszych, ale najmniej zdolnych do spowodowania rozległych szkód:

* Państwa narodowe (najmniej powszechne, najbardziej narażone na uszkodzenia)

* Terroryści

* Szpiedzy, w tym szpiegostwo korporacyjne

*Przestępczość zorganizowana

* Wtajemniczeni

* Hakerzy (najczęściej, najmniejszy potencjał szkód)

UWAGA: Kolejnym odkryciem było to, że wszystkie sześć z tych grup zarówno wzrastało liczebnie, jak i zdolności. Niestety, organizacje odkryły również, że społeczność defensywna nie rośnie ani nie staje się bardziej biegła w operacjach obronnych w podobnym tempie.

Wszystkie te grupy reprezentują nakładające się zbiory aktorów zagrożeń, a uzyskanie przypisania konkretnie temu, kto lub jaka organizacja jest odpowiedzialna za dany atak, jest niezwykle trudne. Systemy wykrywania włamań, dzienniki zapory i oprogramowanie antywirusowe nie podają administratorowi systemu nazwy intruza. Nastoletni haker lub wykwalifikowany zagraniczny rząd może aktywować atak przepełnienia bufora na podatną aplikację, która powoduje, że ukryta powłoka roota nasłuchuje na wysokim porcie TCP. Techniki i narzędzia używane przez wszystkie sześć z tych grup są zazwyczaj takie same, ale motywacje i intencje są bardzo zróżnicowane

Lean Customer Development : Rozwój klienta na imprezie

Abramson przyniósł te dane na Tour of California 2010, gdzie był w stanie zebrać około 30 właścicieli, menadżerów i lekarzy zespołów kolarskich. „Od razu stało się jasne, że żadna z tych osób nie rozmawiała ze sobą o problemach z urazami!” mówi Abramson. Podczas tego spotkania „przeżyliśmy kilka a-ha chwil. Było jasne, że musimy wszystkich zebrać. Postanowiliśmy zorganizować konferencję medyczną. Nasza rozmowa odbyła się w maju i zdecydowaliśmy się przeprowadzić naszą konferencję w listopadzie. Aby zrozumieć, jakie to było szalone, zaplanowanie konferencji akredytowanych w zakresie ustawicznego kształcenia medycznego (CME) zajmuje zwykle rok ”.

Czy rozwój klienta może działać w służbie zdrowia?

Abramson częściowo się z tym zgadza dla tych, którzy są sceptyczni co do rozwoju klientów w dziedzinie opieki zdrowotnej. „Sposoby na rozwój klientów nie działają. Kontakt z lekarzami jest praktycznie niemożliwy. Każdy walczy o ich uwagę – farmaceutyczni przedstawiciele, sprzedawcy EMR, pacjenci. Muszą mieć ceglaną ścianę, która ochroni ich przed rozproszeniem. Nie udało nam się zadzwonić do recepcjonistów ”. Rada Abramsona: „Można zacząć od czegoś małego”. Podczas gdy typowe konferencje CME mają setki lub tysiące uczestników, Medicine of Cycling rozpoczęła się z 40. Zamiast kilkudziesięciu prelegentów było ich 10. „Zaprosiliśmy najlepszych ludzi, których znaliśmy poprzez bezpośrednie kontakty rowerowe, a oni pomogli w rozpowszechnianiu informacji. Zaprosiliśmy ludzi, o których wiedzieliśmy, że odczuwają największy ból z powodu tego problemu – lekarzy z Tour of California, lekarzy zespołu Garmina, lekarzy Komitetu Olimpijskiego USA – a lekarze zespołowi znają innych lekarzy ”.

Hipoteza potwierdzona!

Firma Medicine of Cycling była w stanie zweryfikować swoją początkową hipotezę – dzięki wspólnej pracy możemy sprawić, że rowerzyści będą zdrowi i szybciej wrócą na rowery – dość szybko. „Ta weryfikacja była produktem ubocznym zgromadzenia wszystkich właściwych ludzi w tym samym pomieszczeniu” – mówi Abramson. Od tego czasu organizacja opiera się na stałych opiniach członków, aby nadal rozwijać produkty, wprowadzając profesjonalne członkostwa, publikując wytyczne dotyczące typowych urazów rowerowych i ustanawiając standardy opieki. Idą na czwartą doroczną konferencję.

Problem z kurczakiem i jajkiem: na rynku dwustronnym, co jest pierwsze?

Jeśli zajmujesz się rozwojem klienta z wieloma interesariuszami, czy powinieneś najpierw porozmawiać z jednym docelowym segmentem klientów, a potem z drugim? A może powinieneś zmieniać? LaunchBit, startup obsługujący rynek dwustronny, zweryfikował swoje pomysły poprzez rozwój klientów. Firma, sieć reklamowa dla poczty elektronicznej, musiała zrozumieć potrzeby zarówno marketerów online, jak i wydawców treści. CEO Elizabeth Yin wyjaśnia: „Trudno jest poradzić sobie z dwustronnym rynkiem. Ludzie mówią „najpierw przejdź jedną stronę, a potem użyj jej, aby dostać się na drugą stronę”, ale takie podejście nie było dla nas możliwe ”. „Zaczęliśmy od zbierania sześciu wydawców i dwóch reklamodawców” – powiedział Yin. „Obaj reklamodawcy byli gotowi przetestować nowe zasoby reklamowe, więc chcieli skorzystać z naszego MVP minimalnych kampanii reklamowych. Sześciu wydawców również było zainteresowanych przetestowaniem pomysłu zarabiania na swoich biuletynach. Tak więc na początku mieliśmy niewielką liczbę uczestników z obu stron korzystających z MVP. Wszystko zorganizowaliśmy jako eksperyment. To działało dla ludzi którzy lubią eksperymentować z nowymi pomysłami. Gdy te wczesne eksperymenty zakończyły się sukcesem, mogliśmy rozszerzyć obie grupy. Zaczęliśmy nabierać pewnej skali, co sprawiło, że nasze liczby wyglądały bardziej interesująco dla potencjalnych klientów, którzy nie czuli się dobrze z eksperymentami ”. Trudno jest przewidzieć, z kim najlepiej przeprowadzić rozmowę w pierwszej kolejności, więc nie daj się zbytnio przejmować tym. Wskocz i rozpocznij rozmowę kwalifikacyjną. Po kilku wywiadach zapewne będziesz miał dobre wyczucie, w jaki sposób najbardziej możliwe i praktyczne jest wysłuchanie wszystkich zainteresowanych stron, którym służysz. LaunchBit był w stanie zidentyfikować bolesne problemy dla każdej strony. Marketerzy nie chcieli zawierać jednorazowych umów dotyczących rozwoju biznesu, aby reklamować się w biuletynach. LaunchBit dałby marketerom możliwość kierowania reklam na wiele biuletynów za pomocą jednego zakupu, co przyniosło im korzyści. Wydawcy treści nie chcieli wyświetlać banerów reklamowych, nawet jeśli zarabiali, z powodu obaw, że zraziliby czytelników. LaunchBit zmienił format reklam na reklamy tekstowe, aby zadowolić wydawców – a bez wydawców nie mieliby oni produktu dla marketerów. „Zrozumienie sposobu myślenia zarówno [wydawców, jak i sprzedawców] jest bardzo ważne” – mówi Yin. „To naprawdę ważne, aby mieć stały puls na temat tego, co myślą klienci. Kontynuujemy iterację w oparciu o rozmowy z wydawcami i marketerami, aby sprostać ich potrzebom ”.

Ile Google wie o Tobie : Śledzenie między witrynami

Jak wspomniano wcześniej, wiele witryn internetowych zawiera treści osób trzecich. Treści osób trzecich mogą przybierać między innymi formę legalnych obrazów i klipów wideo, ale można ich również używać do śledzenia użytkowników przeglądających strony internetowe. Reklamodawcy i usługi analityki internetowej zapewniają webmasterom kuszące narzędzia analityczne i zyski z reklamy, wymagając po prostu, aby w zamian webmasterzy dodawali małe fragmenty kodu HTML i JavaScript do swoich stron. Niestety, takie treści należące do osób trzecich stanowią poważne zagrożenie dla prywatności i ujawniania informacji w sieci, ponieważ przeglądarka internetowa użytkownika automatycznie odwiedza te serwery osób trzecich , na których ich wizyta jest prawdopodobnie rejestrowana, a przeglądarka jest oznaczona plikami cookie. Co ważniejsze, im większa jest sieć reklamowa, tym większe okno ma dana firma na aktywność online użytkownika. Na przykład, jeśli użytkownik odwiedza 100 różnych witryn internetowych, z których każda zawiera reklamy z jednej usługi reklamowej, usługa ta może obserwować użytkownika, gdy odwiedza każdą witrynę. Rysunek  przedstawia śledzenie w wielu witrynach za pośrednictwem sieci reklamowej.

W liczbach ta oznacza, że ​​użytkownik odwiedza sześć różnych witryn internetowych, z których każda zawiera treści od jednego reklamodawcy. Z kolei wizyty użytkownika tworzą jeden zestaw wpisów dziennika na każdym z sześciu legalnych serwerów. Ponieważ jednak każda wizyta zawierała reklamę z jednej sieci reklamowej, reklamodawca może zarejestrować wszystkie sześć wizyt.

W świecie bez treści osób trzecich użytkownik powinien po prostu otrzymywać treści z domeny MSNBC, msnbc.msn.com. Jednak w rzeczywistości użytkownik odwiedza 16 dodatkowych domen z 10 różnych firm. Dwie z tych domen, DoubleClick i GoogleAnalytics, są własnością Google. Przeglądarka internetowa zapewnia użytkownikowi niewielką pomoc w wykrywaniu treści pochodzących od osób trzecich. Użytkownik po prostu widzi, jak pasek stanu przeglądarki szybko miga, gdy przeglądarka kontaktuje się z każdą nową witryną. Pomyśl o tym. Samo odwiedzenie pojedynczej strony internetowej z popularnego serwisu informacyjnego informuje 16 serwerów innych firm o wizycie, co jest 16-krotnym powiększeniem logowania. Nie jest to wytworzony przykład, ale reprezentuje powszechną praktykę. Osadzanie treści osób trzecich w witrynach internetowych jest wszechobecne, podobnie jak problem. W rezultacie internauci są często śledzeni przez firmy, o których nawet nie słyszeli. Warto również wziąć pod uwagę, że udostępnianie informacji za pośrednictwem treści osadzonych nie odbywa się tylko z „stronami trzecimi” – udostępnianie może również mieć miejsce między pozornie odrębnymi podmiotami, które są faktycznie własnością tej samej firmy macierzystej. Na przykład wyszukiwanie A9 engine (firma Amazon.com) wstawia reklamy książek Amazon związane z wyszukiwanym hasłem obok wyników wyszukiwania. Te reklamy pozwalają Amazonowi śledzić, czego użytkownicy A9 szukają, klikają i prawdopodobnie kupują online. Jeśli użytkownik dokona zakupu na Amazon.com, Amazon zna jego rzeczywistą tożsamość, w tym informacje dotyczące rozliczeń i wysyłki. W przypadku A9 Amazon wyjaśnia na stronie A9, że A9 jest firmą Amazon.com, ale ważną ideą jest to, że własność korporacyjna – a co za tym idzie, niejawna wymiana informacji – może nie być oczywista, gdy użytkownicy przeglądają sieć.

Zaufanie w Cyberspace : Rozwiązania do egzekwowania zasad po stronie klienta i serwera

W przypadku rozwiązań egzekwujących zasady po stronie użytkownika odwołanie klucza stwarza problem, gdy uprawnienia użytkownika są odbierane. Aby przezwyciężyć ograniczenia, rozwiązania egzekwowania zasad po stronie użytkownika, zaproponowano rozwiązania do zarządzania kluczami współdzielonymi, w których polityka dostępu jest współdzielona między aktorami. Podstawową ideą jest to, że użytkownik nie powinien posiadać całego klucza, który może nadal pomagać w dostępie do danych, nawet po odmowie dostępu. Poniższe podejścia mają na celu zmniejszenie złożoności dostarczania kluczy.

Ciemna Strona Neta : O czym rozmawiamy, gdy mówimy o kodzie

Być może najbardziej niepokojące jest przeformułowanie problemów społecznych jako serii problemów technologicznych, które odwracają uwagę decydentów od rozwiązywania problemów, które nie mają charakteru technologicznego i nie można ich przeformułować. Ponieważ media wciąż dominują nad rolą, jaką telefony komórkowe odegrały w napędzaniu wzrostu gospodarczego w Afryce, decydenci nie mogą sobie pozwolić na zapominanie, że same innowacje nie uwolnią afrykańskich narodów od wszechobecnej korupcji. Takie osiągnięcie będzie wymagało dużej woli politycznej. W przypadku jego braku, nawet najbardziej wyszukana technologia poszłaby na marne. Fundusze na komputeryzację Sudanu pozostałyby niewydane, a komputery pozostałyby nietknięte, o ile wielu polityków regionu jest „bardziej przyzwyczajonych do noszenia AK-47 i organizowania zasadzek niż pisania na laptopach”, jak pisał dla Financial Times tak trafnie to ujął. Wręcz przeciwnie, kiedy wprowadzamy do takich ustawień wielofunkcyjną technologię, taką jak telefon komórkowy, często może ona mieć skutki uboczne, które tylko pogłębiają istniejące problemy społeczne. Kto mógł to przewidzieć, dowiadując się o wielu możliwościach transferu pieniędzy oferowanych przez bankowość mobilną, Kenijscy policjanci zażądaliby, aby kierowcy płacili teraz łapówki za pomocą znacznie łatwiejszych do ukrycia transferów czasu lotniczego zamiast gotówki? W przypadku braku silnych instytucji politycznych i społecznych technologia może jedynie przyspieszyć upadek władzy państwowej, ale łatwo jest stracić z oczu dynamikę świata rzeczywistego, gdy jest się tak zafascynowanym rzekomą błyskotliwością rozwiązania technologicznego. W przeciwnym razie decydenci ryzykują, że popadną w bezmyślny podziw dla technologii jako panaceum, które brytyjski architekt Cedric Price kiedyś wyśmiał, zastanawiając się: „Technologia jest odpowiedzią, ale jakie było pytanie?” Kiedy poprawki techniczne zawodzą, ich zwolennicy zwykle szybko sugerują inną, skuteczniejszą poprawkę techniczną jako remedium – i zwalczają ogień ogniem. Oznacza to, że chcą walczyć z problemami technologii za pomocą jeszcze większej ilości technologii. To wyjaśnia, dlaczego walczymy ze zmianą klimatu, jeżdżąc bardziej oszczędnymi samochodami i chroniąc się przed inwigilacją internetową, polegając na narzędziach, które szyfrują nasze wiadomości i ukrywają naszą tożsamość. Często to tylko pogarsza sytuację, ponieważ wyklucza bardziej racjonalną i wszechstronną dyskusję na temat pierwotnych przyczyn problemu, zmuszając nas do radzenia sobie z bardzo widocznymi i nieistotnymi objawami, które można zamiast tego tanio wyleczyć. Tworzy to niekończącą się i niezwykle kosztowną grę w kotka i myszkę, w której, gdy problem się pogarsza, społeczeństwo jest zmuszone do finansowania jeszcze nowszych, potężniejszych narzędzi, aby go rozwiązać. W ten sposób unikamy poszukiwania bardziej efektywnego nietechnologicznego rozwiązania, które będąc droższe (politycznie lub finansowo) w krótkim okresie, mogłoby zakończyć problem raz na zawsze. Powinniśmy oprzeć się pokusie naprawiania nadużyć technologii, stosując do nich jeszcze więcej technologii. Jak, na przykład, większość zachodnich rządów i fundacji zdecydowała się na walkę z cenzurą Internetu przez autorytarne rządy? Zwykle poprzez finansowanie i promowanie technologii, która pomaga ominąć ten problem. Może to być odpowiednie rozwiązanie dla niektórych krajów – na przykład Korei Północnej, gdzie zachodnie rządy mają bardzo niewielki wpływ dyplomatyczny i polityczny – ale niekoniecznie jest to najlepsze podejście do radzenia sobie z krajami, które są nominalnie zachodnimi sojusznikami. W takich przypadkach niemal wyłączne skupienie się na zwalczaniu cenzury za pomocą narzędzi antycenzuracyjnych odwraca uwagę decydentów od zajmowania się podstawowymi przyczynami cenzury, które najczęściej mają związek z nadmiernymi ograniczeniami, jakie opresyjne rządy nakładają na wolność słowa. Łatwa dostępność technologii obchodzenia środków nie powinna wykluczać decydentów z bardziej ambitnych – i ostatecznie bardziej skutecznych – sposobów zaangażowania. W przeciwnym razie zarówno rządy zachodnie, jak i autorytarne otrzymają darmową przepustkę. Demokratyczni przywódcy udają, że po raz kolejny bohatersko niszczą Mur Berliński, podczas gdy ich autorytarni odpowiednicy chętnie się z tym pogodzą, ponieważ znaleźli inne skuteczne sposoby kontrolowania Internetu. W idealnym świecie zachodnia kampania mająca na celu zakończenie cenzury Internetu w Tunezji lub Kazachstanie koncentrowałaby się przede wszystkim na wywieraniu politycznej presji na zaprzyjaźnionych z Zachodem autorytarnych władców i zajmować się również światem gazet i czasopism offline. W wielu z tych krajów dziennikarze w kagańcu nadal pozostawaliby dominującą taktyką tłumienia sprzeciwu, dopóki przynajmniej więcej ich obywateli nie wejdzie do Internetu i nie zacznie z niego korzystać w innych celach niż zwykłe używanie poczty elektronicznej lub czatowanie z bliskimi za granicą. drwali w Tadżykistanie w celu obejścia rządowego systemu kontroli Internetu niewiele znaczy, gdy zdecydowana większość populacji otrzymuje informacje z radia i telewizji. Poza swoimi przemyśleniami na temat bomb wodorowych i wojny, Weinberg nie dyskutował o tym, jak poprawki technologiczne mogą wpłynąć na politykę zagraniczną. Niemniej jednak wciąż można prześledzić, jak tendencja do ujmowania problemów polityki zagranicznej w kategoriach poprawek technologicznych wpłynęła na myślenie Zachodu o rządach autorytarnych i roli, jaką może odegrać Internet w ich podważaniu. Jedną z najbardziej charakterystycznych cech argumentacji Weinberga było przekonanie, że łatwa dostępność jasnych rozwiązań technologicznych może pomóc decydentom lepiej zrozumieć i zidentyfikować problemy, z którymi się borykają. „Problemy [społeczne] są w pewnym sensie trudniejsze do zidentyfikowania tylko dlatego, że ich rozwiązania nigdy nie są jednoznaczne” – napisał Weinberg. „Z drugiej strony dostępność wyraźnego i pięknego rozwiązania technologicznego często pomaga skupić się na problemie, którego rozwiązaniem jest nowa technologia”. Innymi słowy, tylko dlatego, że decydenci mają „wyraźne i piękne rozwiązanie technologiczne”, aby przebić się przez zapory ogniowe, są skłonni wierzyć, że problemem, który muszą rozwiązać, jest w rzeczywistości łamanie zapór ogniowych, podczas gdy często tak nie jest. . Podobnie, tylko dlatego, że Internet – ta ostateczna poprawka technologiczna – może pomóc zmobilizować ludzi wokół pewnych przyczyn, kuszące jest konceptualizowanie problemu również w kategoriach mobilizacji. Jest to jedna z tych sytuacji, w których wyjątkowe cechy poprawek technologicznych uniemożliwiają decydentom odkrycie wielu ukrytych wymiarów wyzwania, co prowadzi ich do identyfikacji i rozwiązywania problemów, które są łatwe do rozwiązania, a nie tych, które wymagają natychmiastowej uwagi. Wiele wezwań do zastosowania rozwiązań technologicznych do złożonych problemów społecznych trąci poruszeniem technologii dla samej technologii – technologicznym fetyszyzmem skrajnej różnorodności – któremu decydenci polityczni powinni się oprzeć. W przeciwnym razie ryzykują przepisanie ulubionego leku tylko na podstawie kilku typowych objawów, nawet nie zadając sobie trudu, aby postawić diagnozę. Ale ponieważ przepisywanie leku na kaszel komuś, kto ma raka, jest nieodpowiedzialne, tak jest to zastosowanie większej ilości technologii do problemów społecznych i politycznych, które nie mają charakteru technologicznego.

Audyt Mózgu Hackera : Nowe organizacje i nowe odkrycia

Rok 1998 był rokiem znaczącego przebudzenia zarówno w wojskowym, jak i cywilnym sektorze rządu USA. Wiosną tego roku administracja Clintona opublikowała PDD 63 i uruchomiła pierwszą z kilku organizacji, które ostatecznie stały się centralnymi komponentami Departamentu Bezpieczeństwa Wewnętrznego w 2003 roku. Narodowe Centrum Ochrony Infrastruktury stało się częścią Departamentu Sprawiedliwości, a Biuro Zapewnienia Infrastruktury Krytycznej dołączyło do Departamentu Handlu. Sektor prywatny utworzył również pierwsze z kilku sektorowych Centrów Wymiany Informacji i Analiz, z których każde jest połączone z odpowiadającym mu biurem w rządzie federalnym. ISAC to mechanizm służący sektorowi prywatnemu i publicznemu do tworzenia partnerstw w celu wymiany informacji o zagrożeniach fizycznych i cybernetycznych, podatnościach i wykrytych zdarzeniach zagrażających infrastrukturom krytycznym. Model ISAC rozwijał się powoli w kolejnych latach, ale w lutym 2000 r. ataki na główne witryny handlu elektronicznego pobudziły sektory do działania. Departament Obrony, opierając się na wynikach kwalifikującego się odbiornika 97 i Solar Sunrise, podjął szybkie kroki w 1998 r., Aby odpowiedzieć na rosnące zagrożenia w cyberprzestrzeni skierowane do sieci komputerowych DoD. działanie pod koniec roku, po kilkumiesięcznych naradach nad jego funkcją, projektem i umiejscowieniem w wydziale. Podobnie jak większość ówczesnych organizacji zajmujących się cyberobroną, JTF-CND początkowo koncentrował się na identyfikowaniu i ograniczaniu technicznych słabości komputerów i sieci komputerowych w kontrolowanych przez siebie sieciach. Równolegle z utworzeniem JTF-CND pod koniec 1998 r. Pentagon zaproponował również pomysł, aby DoD badał swoje sieci nie tylko pod kątem luk w oprogramowaniu lub braku technologii obronnych, takich jak zapory ogniowe lub systemy wykrywania włamań, ale także pod kątem witryn internetowych. i inne zasoby online, które ujawniły poufne informacje w Internecie. Propozycja ta powstała na początku 1999 roku wraz z utworzeniem Joint Web Risk Assessment Cell, jednostki rezerwowej, która w weekendy ćwiczyła w cyberprzestrzeni, a nie w Centrum Rezerw. JTF w trakcie restrukturyzacji kilka lat później. Rozpoczynając od strony internetowej DoD DefenseLINK, a następnie obejmując wszystkie zasoby internetowe DoD, JWRAC potwierdził, co cytowano z wypowiedzi zagranicznego oficera Information Warfare na początku 1998 roku:

Jestem zdumiony ilością i zawartością materiałów o otwartym kodzie źródłowym dostępnym w Internecie od armii USA i innych rządowych agencji … Wróg USA nie musi mieć konkretnych plany wojenne / operacyjne, kiedy jest tak wiele informacji o doktrynie USA powszechnie dostępne. – Odprawa JWRAC, 27 listopada 2001 r

W pierwszym roku działalności zespół zbadał setki witryn internetowych DoD i znalazł znaczące ilości informacji, które nie powinny być dostępne online, takie jak dokumenty niejawne, szczegółowe informacje o uczestnikach ćwiczeń i wyciągnięte wnioski oraz dokumenty i wiadomości przeznaczone wyłącznie do użytku oficjalnego. . Inne znalezione przez nich pozycje obejmowały plany operacyjne z załącznikami wyszczególniającymi logistykę, sprzęt i dane dotyczące siły roboczej, odprawy przeznaczone dla wybranych odbiorców, szczegółowe dane osobowe, schematy organizacyjne, zdjęcia i inne informacje, które nie powinny znajdować się w Internecie. Większość poszczególnych pozycji była sama w sobie niesklasyfikowana, ale łącznie znaczną ilość informacji niejawnych można było zebrać po prostu za pomocą wyszukiwarki internetowej i prostych słów kluczowych. Pozostała część rządu federalnego nie zajęła się tą samą luką w zabezpieczeniach informacji w swoich zasobach internetowych, dopóki po atakach terrorystycznych z września 2001 r. Nawet dzisiaj na stronach rządowych i prywatnych witryn internetowych pozostaje wiele informacji przydatnych przeciwnikowi prowadzącemu rozpoznanie infrastruktury krytycznej przed atakiem.