Lean Customer Development : W ciągu 10 wywiadów: pojawiają się wzorce

W ciągu 10 wywiadów prawdopodobnie usłyszałeś jakieś powtórzenia. Może to przybrać postać dwóch lub trzech osób wyrażających podobne frustracje, motywacje, ograniczenia procesu lub rzeczy, które chcieliby zrobić.

Kwestionowanie wzorców

Kiedy trzykrotnie usłyszałem jakąś koncepcję, świadomie próbuję ją zakwestionować w przyszłych wywiadach. Używam słowa wyzwanie, ponieważ celem jest tutaj przetestowanie wzorca, a nie założenie, że się utrzyma. Kuszące jest użycie tak lub nie lub „Zgadzasz się?” pytania dotyczące przyszłych uczestników. To wprowadza stronniczość. Skoncentruj się na pytaniu o scenariusze i przeszłe zachowania i pozwól rozmówcy w naturalny sposób potwierdzić (lub nie) wzór. Jeśli temat nie pojawia się w sposób naturalny, pomocny sposób na zakwestionowanie tego schematu jak widzieliście, to metoda „innych ludzi”. Mówisz o wynalezionych „Innych ludziach” i twierdzą, że czują inaczej lub działają w odwrotny sposób niż wzorzec, który słyszałeś. Na przykład:

Wzór

Wiele osób mówiło, że szukają informacji o samochodach w internecie, a następnie odwiedzają dealera.

Wyzwanie

Możesz powiedzieć coś przeciwnego: „Inni ludzie powiedzieli mi, że wolą najpierw odwiedzić dealera i przetestować samochód, a następnie poszukać informacji online. Czy możesz mi powiedzieć, jak kupujesz samochody?”

Upewnij się, że po stwierdzeniu „inni robią to” zadajesz pytanie. To prowokuje rozmówcę do zwrócenia większej uwagi na to, co powiedziałeś i udzielenia bardziej szczegółowej odpowiedzi. * Niezależnie od tego, czy zgadza się, czy nie zgadza się z Twoimi mitycznymi innymi ludźmi, zareaguje na porównanie, dokładnie opisując, czym się różni lub jest do nich podobny .

Nie masz jeszcze wzorów?

A co, jeśli nie słyszysz wzorców? Można porozmawiać z 10 lub więcej osobami i usłyszeć wiele odpowiedzi, które wydają się autentyczne i wywołują emocje, ale nie wydają się układać w pewien schemat. Zwykle oznacza to, że kierujesz reklamy do zbyt szerokiego grona klientów. Możesz rozmawiać z wieloma różnymi typami ludzi, z których wszyscy są wiarygodnymi klientami, ale mają różne potrzeby. Zalecam zawężenie typu ludzi, z którymi rozmawiasz. Spróbuj skupić się na jednym stanowisku, stylu życia, kompetencjach technicznych, rodzaju firmy lub innej ograniczającej kategorii. Pomoże Ci to szybciej dostrzec wzorce, abyś mógł kontynuować naukę i nie denerwować się. Nie martw się, że celujesz zbyt wąsko – Twoim celem jest jak najszybsze sprawdzenie lub unieważnienie.

Ile Google wie o Tobie : Widok na poziomie ulicy

Tam, gdzie zdjęcia z góry znalezione w witrynach z mapami mają wystarczającą rozdzielczość, aby wyświetlić samochody i ludzi, w kilku dużych miastach, Google Street View znacznie zwiększa zagrożenie dla prywatności . W StreetView możesz bardzo wyraźnie zobaczyć osoby. Jeśli mieszkasz w miejscu, które zostało sfotografowane przez StreetView, prawdopodobnie Ty, Twój dom, Twój samochód lub ktoś, kogo znasz, znajduje się w systemie.  Należy zauważyć, że w odpowiedzi na obawy dotyczące prywatności Google rozpoczął testowanie technologii zacierania twarzy w połowie 2008 r., Zgodnie z planem publikacji tej książki. Widok z poziomu ulicy zależy od obrazów zebranych przez pojazdy wyposażone w kamery. Pojazdy te poruszają się po ulicach z toczącymi się kamerami. Duża siła robocza, niewiele dziedzin omówione, ale te, które zostały opisane, są dość szczegółowe i budzą szereg wątpliwości; osoby odwiedzające schroniska dla ofiar przemocy domowej, plażowicze i patroni księgarni dla dorosłych. Ciekawym przypadkiem, który ilustruje obawy o prywatność, jest sprawa prawnika EFF Kevina Bankstona, który został sfotografowany zarówno przez aparaty Google, jak i przez system A9 firmy Amazon, z których oba wygenerowały znaczną negatywną prasę.  Punktem do nauki jest to, że jeśli tworzysz system mający wpływ na prywatność, nie powinieneś dołączać zdjęć czołowych obrońców prywatności.

Zaufanie w Cyberspace : Rozwiązanie do zarządzania kluczami

Autorzy najpierw proponują algorytm konstruowania częściowego rzędu na AC. Porządek częściowy jest reprezentowany przez zredukowany ukierunkowany graf, w którym węzły są AC, a łuki (skierowane krawędzie) łączą porównywalne elementy: od większych do mniejszych. Skonstruowany wykres, zwany V-grafem, ma dwie dodatkowe właściwości zwane warunkami V: (1) liczba łuków wchodzących do węzła wynosi 2 lub 0 oraz (2) dla dowolnych dwóch węzłów jest co najwyżej jeden węzeł, z którego łuki prowadzą do nich obu. Projekt proponowanego systemu zarządzania kluczami przedstawiono na rysunkach . Rysunek pierwszy  przedstawia fazę ochrony wykonywaną przez organ centralny (CA) po stronie serwera danych.

Po pierwsze, tabela kontroli dostępu zawierająca prawa dostępu użytkowników (1) jest przetwarzana przez moduł porządkujący, który konstruuje relację kolejności na AC (2), reprezentowaną przez skierowany zredukowany V-graf. Moduł przypisywania kluczy, który jako dane wejściowe przyjmuje V-graph kontroli dostępu (3) i zwraca V-wykres kluczy publicznych i tajnych kluczy dystrybuowanych do użytkowników systemu (4), moduł szyfrowania danych szyfruje dane, wykorzystując tabelę kontroli dostępu i skonstruowany wykres klawiszy (5). Końcowym rezultatem tej fazy (6) są zaszyfrowane dane dostarczone wraz z indeksami odpowiednich kluczy deszyfrujących. Rysunek drugi przedstawia fazę zapytania wykonywaną przez użytkowników po stronie klienta.

Najpierw żądanie (1) jest przetwarzane przez moduł pozyskiwania klucza. W celu uzyskania klucza deszyfrującego dla żądanych danych, z bazy danych pobierany jest indeks żądanego klucza (2), a następnie generowany jest klucz z tym indeksem (3) na podstawie schematu DH, przy użyciu klucza prywatnego użytkownika i hierarchii kluczy publicznych (2). Uzyskany klucz deszyfrujący (4) jest używany przez moduł deszyfrujący do odszyfrowania żądanych danych (4) otrzymanych z bazy danych. Zalety. Jest to pierwsza tego rodzaju praca polegająca na zaproponowaniu rozwiązania do generowania kluczy zaprojektowanego specjalnie do kontroli dostępu. Proponowane rozwiązanie eliminuje potrzebę tworzenia wielu kopii kluczy danych i zmniejsza ilość miejsca wymaganą przez użytkownika do jednego klucza. Poprawę osiąga się poprzez zastosowanie proponowanego schematu generowania klucza DH. Rozwiązanie ogranicza również wymagany rozmiar informacji publicznej. Ograniczenia. Budowa algorytmu i schematów generowania jest bardzo złożona i kosztowna. Ponownie, aktualizacje praw dostępu powodują przebudowę hierarchii i obowiązkowe generowanie kluczy, co w większości przypadków prowadzi do ponownego wprowadzenia danych.

Ciemna Strona Neta : Dlaczego technologie nigdy nie są neutralne

Jeśli determinizm technologiczny jest niebezpieczny, to jest też jego przeciwieństwo: nijaka odmowa dostrzeżenia, że ​​pewne technologie, z samej swojej konstytucji, z większym prawdopodobieństwem przyniosą określone skutki społeczne i polityczne niż inne technologie, gdy zostaną osadzone w umożliwiających środowiskach. W rzeczywistości nie ma bardziej banalnego, dwuznacznego i głęboko mylącego nieporozumienia niż „technologia jest neutralna”. Często słyszymy, że wszystko zależy od tego, jak zdecyduje się użyć danego narzędzia: nożem można kogoś zabić, ale można nim też wyrzeźbić drewno. Neutralność technologii jest głęboko zakorzenionym tematem w intelektualnej historii cywilizacji zachodniej. Boccaccio poruszył kilka interesujących pytań na ten temat w The Decameron w połowie XIV wieku. „Kto nie wie, czym jest dobre wino dla zdrowych. . . a jak niebezpieczne dla chorych? Czy mamy zatem powiedzieć, że wino jest złe tylko dlatego, że szkodzi gorączkującym? … Broń chroni dobro tych, którzy pragną żyć w pokoju; Niemniej jednak; często przelewają krew, nie przez jakiekolwiek zło, które im towarzyszy, ale przez niegodziwość ludzi, którzy używają ich do niegodnych celów ”. Neutralność Internetu jest często przywoływana również w kontekście demokratyzacji. „Technologia jest jedynie narzędziem, otwartym zarówno na szlachetne, jak i nikczemne cele. Tak jak radio i telewizja mogą być nośnikami pluralizmu informacji i racjonalnej debaty, tak też mogą być przejęte przez reżimy totalitarne w celu fanatycznej mobilizacji i całkowitej kontroli państwa” – pisze Hoover Larry Diamond z instytucji. Mowa o neutralności wkradła się również do przemówienia Hillary Clinton o wolności w Internecie, kiedy zauważyła, że ​​„tak jak stal może być używana do budowy szpitali lub karabinów maszynowych, a energia jądrowa może zasilać miasto lub je niszczyć, tak nowoczesne sieci informacyjne i technologie, które obsługują, można wykorzystać na dobre lub na złe ”. Najbardziej interesującą rzeczą w analogii Clintona między Internetem a energią jądrową jest to, że sugeruje ona, że ​​potrzeba więcej, a nie mniej nadzoru i kontroli nad Internetem. Nikt nie opowiada się dokładnie za tym, aby elektrownie jądrowe były eksploatowane tak, jak sobie tego życzą ich właściciele; pojęcie „wolności nuklearnej” jako środka wyzwolenia świata brzmi raczej absurdalnie. Projektanci produktów lubią myśleć o narzędziach jako o pewnych postrzeganych cechach. Zwykle nazywane „afordancjami” cechy te sugerują – a nie dyktują – w jaki sposób narzędzia mają być używane. Fotel może mieć afordancję do siedzenia, ale może też mieć afordancję do wybicia szyby; wszystko zależy od tego, kto patrzy i dlaczego. Fakt, że dana technologia ma wiele afordancji i jest otwarta na wiele zastosowań, nie wyklucza jednak potrzeby dokładnego zbadania jej konstytucji etycznej, porównania skutków jej społecznie korzystnych zastosowań z efektami społecznie szkodliwych zastosowań, oszacowania, które zastosowania są najprawdopodobniej przeważy, a na koniec zdecyduj, czy należy ustanowić jakiekolwiek łagodzące prawa i polityki, aby wzmocnić lub osłabić niektóre z następczych skutków. Na papierze technologia jądrowa jest piękna, złożona, bezpieczna i genialnie zaprojektowana; w rzeczywistości ma jedną osobliwą * afordancję ”, na którą większość społeczeństw nie może sobie pozwolić, a przynajmniej nie mogą sobie na nią pozwolić bez znaczących zabezpieczeń. Podobnie, powodem, dla którego większość szkół zabrania swoim uczniom noszenia noży, jest to, że takie zachowanie może prowadzić do rozlewu krwi. To, że nie wiemy, jak dokładnie noże będą używane w rękach młodych ludzi w każdej konkretnej sytuacji, nie jest wystarczająco mocnym powodem, aby im na to pozwolić; z drugiej strony wiedza o tym, jak można je nadużywać, nawet jeśli ryzyko nadużycia jest niewielkie, dostarcza nam wystarczających informacji, aby opracować ograniczającą politykę. Dlatego większość społeczeństw chce uniknąć niektórych afordancji noży (takich jak ich zdolność do ranienia ludzi) w pewnych kontekstach (takich jak szkoły). Główny problem z tezą „technologia jest neutralna”, dlatego jest jego zupełną bezużytecznością dla celów kształtowania polityki. Może stanowić przydatny punkt wyjścia dla niektórych prac akademickich w zakresie projektowania, ale po prostu nie zapewnia żadnych podstaw do rozsądnego kształtowania polityki, które często polega na znalezieniu właściwej równowagi między konkurencyjnymi towarami w określonych kontekstach. Jeśli technologia jest neutralna, a jej skutki społeczne są niepoznawalne – wszystko zależy od tego, kto jej używa i kiedy – wydaje się, że decydenci i obywatele mogą niewiele zrobić, aby ją kontrolować. Niewłaściwe użycie niektórych prostych technologii jest jednak tak powszechne i łatwe do uchwycenia, że ​​ich niepożądane w niektórych kontekstach są oczywiste; Trudno sobie wyobrazić, by ktoś na spotkaniu PTA twierdził, że noże są jedynie narzędziami, otwartymi zarówno na szlachetne, jak i nikczemne konteksty. Ale jeśli chodzi o bardziej złożone technologie – a zwłaszcza Internet, z jego mnóstwem zastosowań – ich warunkowa niechęć staje się znacznie mniej oczywista, z wyjątkiem być może bardzo wrażliwych kwestii (np. Dzieci uzyskujące dostęp do pornografii internetowej). Pogląd, że technologia jest neutralna, pozostawia decydentom niewiele do zrobienia poza analizą sił społecznych związanych z technologiami, a nie samych technologii. Ktoś mógłby powiedzieć, że jeśli chodzi o kooptację Internetu przez represyjne reżimy, nie należy winić internetu, a jedynie dyktatorów. To też nie jest odpowiedzialny pogląd. Nawet ci, którzy twierdzą, że logika technologii jest plastyczna przez logikę społeczeństwa, które ją przyjmuje, nie proponują zaprzestania zwracania uwagi na tę pierwszą. Irańska policja może bez końca monitorować serwisy społecznościowe, ale łatwo wyobrazić sobie świat, w którym Facebook zapewnia lepszą ochronę danych swoim użytkownikom, przez co policja może mieć trudniej dowiedzieć się więcej o Irańczykach na Facebooku. Podobnie łatwo jest wyobrazić sobie świat, w którym Facebook nie zmienia ilości danych użytkowników, które ujawnia publicznie, bez uprzedniego uzyskania od użytkownika wyraźnej zgody. Można więc wierzyć, że reżimy autorytarne nadal będą zagorzałymi użytkownikami internetu, ale można im to utrudnić. Dalszą drogą jest jasne zbadanie zarówno logiki technologii, jak i logiki społeczeństwa, które ją przyjmuje; w żadnym wypadku nie powinniśmy dawać technologiom – bez względu na to, czy jest to internet, czy telefony komórkowe – darmowego przejścia do etyki. Zbyt często projektowanie technologii po prostu ukrywa ideologie i programy polityczne ich twórców. Już samo to jest wystarczającym powodem, by zwrócić większą uwagę na to, komu najprawdopodobniej odniesie korzyść i komu zaszkodzi. To, że technologie mogą nie osiągnąć celów zamierzonych przez ich zwolenników, nie powinno nas odciągać od analizy celowości tych pierwotnych planów. Internet nie jest wyjątkiem. Etos mieszania Web 2.0, w którym nowe aplikacje można łatwo zbudować ze starych, jest po prostu kolejnym dowodem na to, że Internet wyróżnia się w generowaniu afordancji. Nic w tym nie wskazuje, że wszystkie takie afordancje sprzyjałyby demokratyzacji. Każdy z nich należy oceniać na własnych warunkach, a nie wrzucać go do jakiejś mitycznej „neutralności narzędziowej”. Zamiast tego powinniśmy dokładnie zbadać, które z nowo utworzonych afordancji prawdopodobnie będą miały cechy wzmacniające demokrację, a które mogą mieć właściwości tłumiące demokrację. Dopiero wtedy będziemy mogli wiedzieć, które afordancje musimy wspierać, a które potrzebujemy liczyć. Nieuniknione jest, że w wielu kontekstach niektóre afordancje w sieci, takie jak możliwość zachowania anonimowości podczas publikowania poufnych informacji, mogą być interpretowane w obie strony, na przykład pozytywnie jako sposób na uniknięcie rządowej cenzury, ale także negatywnie jako sposób na tworzenie skutecznej propagandy lub przeprowadzanie cyberataków. Nigdy nie będzie łatwego rozwiązania takich kłopotów. Ale jest to również rodzaj złożonej kwestii, która zamiast być przemilczana lub uznawana za niezmienną, powinna zostać rozwiązana w drodze demokratycznej debaty. Demokracje cały czas napotykają takie problemy. Jednak niezaprzeczalne wydaje się to, że odmawianie choćby myślenia w kategoriach afordancji i zamiast tego postulowanie „neutralności narzędziowej” nie jest szczególnie skutecznym sposobem na powstrzymanie niektórych nadużyć technologii.

Audyt Mózgu Hackera : Luki w infrastrukturze krytycznej

W połowie lat dziewięćdziesiątych administracja Clintona podjęła inicjatywę oceny wpływu Internetu na gospodarkę kraju i jego infrastrukturę. W ramach tych wysiłków przewodnicząca Komisja ds. Ochrony Infrastruktury Krytycznej zbadała infrastruktury krytyczne i znalazła wiele istotnych luk w zabezpieczeniach. Jesienią 1997 r. Komisja zaproponowała strategię ochrony narodu. Jej raport „Critical Foundations: Protecting America’s Infrastructures” wezwał do opracowania krajowego planu zapewniającego bezpieczeństwo coraz bardziej podatnej na zagrożenia i wzajemnie połączonej infrastruktury krytycznej w Stanach Zjednoczonych. W raporcie zauważono, że ochrona infrastruktury krytycznej to „odpowiedzialność wspólna zarówno dla sektora publicznego, jak i prywatnego”.

W kolejnej białej księdze, którą Biały Dom opublikowała wiosną 1998 r., Towarzysząc Prezydenckiej dyrektywie nr 63 (PDD 63), wyjaśniono, że armia i gospodarka kraju są w coraz większym stopniu zależne od niektórych infrastruktur krytycznych i systemów informacyjnych opartych na cyberprzestrzeni:

W przeszłości wiele krytycznych infrastruktur narodu było fizycznie i logicznie oddzielnymi systemami, które miały niewielką współzależność. Jednak w wyniku postępu technologii informacyjnej i konieczności poprawy wydajności infrastruktury te stają się coraz bardziej zautomatyzowane i wzajemnie powiązane. Te same postępy stworzyły nowe podatności na awarie sprzętu, błędy ludzkie, pogodę i inne przyczyny naturalne oraz ataki fizyczne i cyberataki. Konieczne będzie wyeliminowanie tych luk w zabezpieczeniach wymagają elastycznego, ewolucyjnego podejścia, które obejmuje zarówno sektor publiczny, jak i prywatny oraz chroni zarówno bezpieczeństwo wewnętrzne, jak i międzynarodowe. Ze względu na naszą siłę militarną przyszli wrogowie, czy to narody, grupy czy jednostki, mogą chcieć wyrządzić nam krzywdę w nietradycyjny sposób, w tym ataki w Stanach Zjednoczonych. Nasza gospodarka jest w coraz większym stopniu zależna od współzależnych i wspieranych cyberprzestrzeni infrastruktury, a nietradycyjne ataki na naszą infrastrukturę i systemy informatyczne mogą być w stanie znacząco zaszkodzić zarówno naszej sile militarnej, jak i naszej gospodarce.

Polityka administracji Clintona dotycząca infrastruktury krytycznej

Ochrona: Decyzja Prezydenta, Dyrektywa 63, 22 maja 1998

W PDD 63 uznano, że Stany Zjednoczone muszą opracować środki ochrony infrastruktury krytycznej kraju przed celowymi działaniami, które znacznie zmniejszyłyby jego możliwości. Niektóre z zidentyfikowanych pozycji obejmowały:

* Zdolność rządu federalnego do wykonywania podstawowych misji w zakresie bezpieczeństwa narodowego oraz do zapewnienia zdrowia i bezpieczeństwa ogółu społeczeństwa * Zdolność władz stanowych i lokalnych do utrzymania porządku i świadczenia minimalnych podstawowych usług publicznych

* Rola sektora prywatnego w zapewnianiu prawidłowego funkcjonowania gospodarki i świadczeniu podstawowych usług telekomunikacyjnych, energetycznych, finansowych i transportowych

W PDD 63 uznano również, że „wszelkie zakłócenia lub manipulacje tymi krytycznymi funkcjami muszą być krótkie, rzadkie, możliwe do opanowania, odizolowane geograficznie i minimalnie szkodliwe dla dobra Stanów Zjednoczonych”. W dyrektywie administracyjnej zaproponowano utworzenie pięciu nowych zasobów:

* Krajowy koordynator, którego zakres obejmował nie tylko ochronę infrastruktury krytycznej, ale także ochronę przed zagranicznym terroryzmem i zagrożeniami masowego rażenia w kraju.

* Narodowe Centrum Ochrony Infrastruktury (NIPC) w FBI utworzone w celu połączenia przedstawicieli FBI, DOD, USSS, energetyki, transportu, społeczności wywiadowczej i sektora prywatnego w bezprecedensową próbę wymiany informacji między agencjami we współpracy z sektorem prywatnym Zadaniem NIPC było zapewnienie głównych środków ułatwiających i koordynujących reakcję rządu federalnego na incydent, łagodzenie ataków, badanie zagrożeń i monitorowanie wysiłków na rzecz odbudowy.

* Centra wymiany informacji i analiz (ISAC) były zachęcane do tworzenia przez sektor prywatny we współpracy z rządem federalnym i wzorowane na centrach kontroli i zapobiegania chorobom.

* Krajowa Rada ds. Zapewnienia Infrastruktury miała zostać utworzona z liderów sektora prywatnego oraz urzędników stanowych i lokalnych, aby zapewnić wytyczne dotyczące formułowania polityki w planie krajowym.

* Biuro Zapewnienia Infrastruktury Krytycznej miało wspierać współpracę koordynatora krajowego z agencjami rządowymi i sektorem prywatnym przy opracowywaniu planu krajowego, a także pomagać w koordynowaniu krajowego programu edukacyjnego i uświadamiającego, a także spraw legislacyjnych i publicznych.

Z proponowanych zdolności wszystkie oprócz NIAC zostały wdrożone do końca dekady. Wszystkie te funkcje ostatecznie stały się częścią Departamentu Bezpieczeństwa Wewnętrznego USA w 2003 r. W trakcie tego procesu głównym zidentyfikowanym ryzykiem był atak na sieci cybernetyczne, wspólny wątek łączący wszystkie krytyczne infrastruktury. Zwrócono również uwagę, że niezawodne działanie sieci elektrycznej i systemu elektroenergetycznego ma fundamentalne znaczenie dla funkcjonowania infrastruktury krytycznej. Jednak internet jest dostępny na całym świecie, co czyni go prawdopodobną drogą dla przeciwnika, który chce zakłócić lub zdegradować te systemy. Publikacja PDD 63 wiosną 1998 r. Była punktem zwrotnym w zrozumieniu uzależnienia narodu w Internecie. Położył podwaliny pod organizacje, które ostatecznie zostały włączone do Departamentu Bezpieczeństwa Wewnętrznego. Przewidziano również, że organizacje terrorystyczne mogą pewnego dnia zaatakować krytyczne infrastruktury USA, myśląc wówczas, że przyszły atak na Stany Zjednoczone będzie odbywał się bitami i bajtami, a nie samolotami wlatującymi do budynków.

Lean Customer Development : Gratulacje! Unieważniłeś swoją hipotezę!

To niepokojące, gdy po raz pierwszy zdajesz sobie sprawę, że co najmniej jedno z Twoich początkowych założeń jest błędne. Spróbuj myśleć o tym jako o czymś pozytywnym. Praktycznie nikt nie rozpoznaje swojego rynku i produktu od razu za pierwszym razem, więc nie jest to refleksja na temata Ciebie ani Twojego produktu. Jeśli udało Ci się obiektywnie zaakceptować fakt, że klienci nie gryzą, to dobry znak. Pokazuje, że zostałeś wystarczająco zdyscyplinowany, aby mówić bez prowadzenia świadka i słuchać bez wstawiania swojego uprzedzenia. Co teraz? Cóż, jednym z powodów, dla których zadawałeś otwarte pytania, jest to, że nie tylko możesz dowiedzieć się, co, ale także dlaczego. Przyjrzyj się zachowaniom opisanym przez początkowego klienta docelowego. Spójrz na powody, które podał, dla podjęcia tych działań. Twoje notatki powinny zawierać wskazówki, który klient może być bardziej odpowiedni. Spójrz również na swoją początkową hipotezę. Jak byś to zmienił na podstawie tego, czego się nauczyłeś? Czy istnieją mniejsze założenia, które zostały przez Ciebie zweryfikowane lub unieważnione? Koniecznie zapisz to, czego się nauczyłeś, napisz nową hipotezę i zacznij od nowa. Za każdym razem staje się to łatwiejsze. A co najlepsze, zrobiłeś to w ciągu pięciu wywiadów. To znacznie lepsze niż po wprowadzeniu produktu na rynek!

Ile Google wie o Tobie : Jeśli coś jest wrażliwe, po prostu to zasłoń

Potęga Map Google w rękach mas nie pozostała niezauważona przez światowych przywódców. Przywódcy, w tym urzędnicy z Tajlandii, Korei Południowej i Indii, wyrazili obawy co do mocy systemu w zakresie pokazywania wrażliwych obiektów.  W rezultacie firma Google otrzymała szereg żądań (czasami żądań) ograniczenia dostępu. Popularną techniką zaspokajania takich żądań jest zasłanianie „wrażliwej” lokalizacji. Ukrywanie wrażliwych lokalizacji działa dość dobrze, gdy założysz samotnego analityka, ale jest znacznie mniej skuteczne w konfrontacji z dużą grupą podobnie myślących widzów, którzy chcą zidentyfikować ocenzurowane lokalizacje. Podejście to jest jeszcze mniej bezpieczne, gdy założymy, że Google prawdopodobnie otrzymał oryginalne niezmienione obrazy i ocenzurowało same obrazy. Mieliby nie tylko oryginalny niezmieniony obraz, być może w nawet wyższej rozdzielczości niż ten, który jest dostępny w Internecie, ale najprawdopodobniej także główną listę wszystkich wrażliwych witryn. Chciałbym mieć tę listę. Podczas korzystania z usług takich jak Google Maps pojawia się pytanie o dokładność wyników. Zapytaj taksówkarza, co sądzi o Mapach Google lub wskazówkach MapQuest. Wyniki mogą oczywiście być przypadkowo błędne lub nieaktualne. Rozsądnie jest jednak wziąć pod uwagę, że wyniki mogą celowo wprowadzać w błąd. Ponadto, jeśli założymy, że może istnieć złośliwy ISP lub dostawca sieci szkieletowej, otrzymane obrazy mogą nie być zgodne z prawdą, nawet jeśli źródło dostarcza dokładnych obrazów, ponieważ można je zamienić po drodze.

Zaufanie w Cyberspace : Schemat generowania kluczy oparty na Diffie-Hellmanie

Praca ta przedstawia alternatywny schemat zarządzania kluczami oparty na hierarchii kierowanej konfiguracją częściowego porządku dostępu . Poziomy takiej struktury to AC dla pojedynczych użytkowników, a krawędzie są zbudowane od dołu do góry, tak że każdy pośredni wierzchołek jest wskazywany przez dokładnie dwie krawędzie, a jego AC jest sumą pasowań dwojga dzieci. Wynikowa hierarchia jest następnie uruchamiana przez algorytm generowania kluczy Diffiego – Hellmana (DH), który przypisuje tajne klucze do wierzchołków w sposób oddolny, tak że użytkownik z jednym kluczem może uzyskać wszystkie tajne klucze przypisane do jego zestawów danych. Autorzy dochodzą do rozwiązania do zarządzania kluczami w następujący sposób ,dwa kroki: (1) tworzenie V-grafu, którego elementami są AC i (2) generowanie kluczy przy użyciu schematu generowania klucza DH dla V-grafu. Te kroki wyjaśniono w następnym wpisie.

Ciemna Strona Neta : Czy po Twitterze jest historia?

Kuszące jest postrzeganie technologii jako pewnego rodzaju brakującego ogniwa, które może pomóc nam zrozumieć niepowiązane wydarzenia znane jako historia ludzkości. Po co szukać bardziej złożonych powodów, skoro ustanowienie demokratycznych form rządów w Europie można wytłumaczyć wynalezieniem prasy drukarskiej? Jak zauważył historyk ekonomii Robert Heilbroner w 1994 roku, „historia jako przypadek jest perspektywą, która jest czymś więcej niż może znieść ludzki duch”. Determinizm technologiczny – czyli przekonanie, że pewne technologie są zobowiązane do wywoływania pewnych skutków społecznych, kulturowych i politycznych – jest atrakcyjne właśnie dlatego, że „tworzy potężne scenariusze, jasne historie i jest zgodne z dominującym doświadczeniem na Zachodzie” – pisze Steve Graham i Simon Marvin, dwóch badaczy geografii miejskiej. Wymuszenie powiązania między rolą, jaką kserokopie i faksy odegrały w Europie Wschodniej w 1989 r., A rolą, jaką Twitter odegrał w Iranie w 2009 r., Tworzy rozdzierającą serce, ale także niezwykle spójną narrację, która opiera się na powszechnym przekonaniu, zakorzenionym w ideałach oświecenia, w emancypacyjna siła informacji, wiedzy, a przede wszystkim idei. O wiele łatwiej jest wyjaśnić najnowszą historię, zakładając, że komunizm upadł w chwili, gdy obywatele radzieccy zrozumieli, że w zachodnich supermarketach nie ma kolejek, niż szukać prawdy w jakichś długich i niejasnych raportach na temat bilansu handlowego ZSRR. Z tego powodu determinizm – czy to zróżnicowania społecznego, zakładającego koniec historii, czy też różnorodności politycznej, zakładającej koniec autorytaryzmu – jest zubożałym intelektualnie, leniwym sposobem badania przeszłości, rozumienia teraźniejszości i przewidywania przyszłość. Bryan Pfaffenberger, antropolog z University of Virginia, uważa, że ​​powodem, dla którego tak wielu z nas wpada w deterministyczne scenariusze, jest to, że przedstawia najłatwiejsze wyjście. „Zakładanie determinizmu technologicznego”, pisze Pfaffenberger, „jest znacznie łatwiejsze niż prowadzenie w pełni kontekstowego badania, w którym ludzie okazują się być czynnymi właścicielami transferowanej technologii, a nie biernymi ofiarami”. Ale nie tylko historia cierpi z powodu determinizmu; etyka nie wypada dużo lepiej. Jeśli marsz technologii jest niepowstrzymany i jednokierunkowy, podczas gdy horda guru technologii wciąż przekonywa opinię publiczną ze stron magazynów technologicznych, stanie na jej drodze wydaje się bezcelowe. Jeśli radio, telewizja lub Internet są gotowe do zapoczątkowania nowej ery demokracji i powszechnych praw człowieka, my, ludzie, niewiele mamy do odegrania. Jednak argumentowanie, że kiedyś szeroko rozpowszechniona praktyka, taka jak lobotomia, była po prostu wynikiem nieuniknionych sił technologicznych, jest zwolnieniem jej zwolenników. W ten sposób determinizm technologiczny przesłania role i obowiązki ludzkich decydentów, albo zwalniając ich z zasłużonej winy lub minimalizując rolę ich znaczących interwencji. Jak zauważa Arthur Welzer, politolog z Michigan State University, „w zakresie, w jakim postrzegamy siebie jako bezradne pionki nadrzędnej i niewzruszonej siły, możemy wyrzec się moralnej i politycznej odpowiedzialności, która w rzeczywistości jest kluczowa dla dobre wykorzystanie naszej władzy nad technologią ”. Przyjmując postawę deterministyczną, rzadziej będziemy poddawać technologię – i tym, którzy z niej zarabiają na życie – pełnemu bukietowi zagadnień etycznych normalnych dla demokracji. Czy Google powinno być zobowiązane do szyfrowania wszystkich dokumentów przesyłanych do usługi Dokumenty Google? Czy należy zezwolić Facebookowi na dalsze upublicznianie większej ilości danych swoich użytkowników? Czy należy zapraszać Twittera na głośne zebrania rządu USA bez uprzedniej rejestracji w Global Network Initiative?

Chociaż wiele takich pytań jest już podnoszonych, nietrudno wyobrazić sobie przyszłość, w której byłyby poruszane rzadziej, szczególnie w biurach, które muszą ich najczęściej zadawać.

W całej historii nowe technologie prawie zawsze dawały siłę i pozbawił mocy określone grupy polityczne i społeczne, czasami jednocześnie – fakt, o którym zbyt łatwo jest zapomnieć pod wpływem determinizmu technologicznego. Nie trzeba dodawać, że taka amnezja etyczna rzadko leży w interesie osób pozbawionych władzy. Robert Pippin, filozof z University of Chicago, twierdzi, że fascynacja społeczeństwa technologią kosztem moralności osiąga punkt, w którym „to, co należy rozumieć jako przypadkowe, jedną z wielu opcji, która jest otwarta na polityczną dyskusję, jest zamiast tego fałszywie rozumiana jako niezbędne; to, co służy szczególnemu interesowi, jest postrzegane bez refleksji, jako interes powszechny; to, co powinno być częścią, jest doświadczane jako całość ”. Dyrektorzy Facebooka usprawiedliwiają swój atak na prywatność, twierdząc, że i tak właśnie tam zmierza społeczeństwo jest dokładnie tym rodzajem roszczenia, które powinno podlegać kontroli moralnej i politycznej, a nie tylko technologicznej. To właśnie poprzez odwołanie się do takich deterministycznych narracji Facebookowi udaje się zaciemnić swoją rolę w tym procesie. Abbe Mowshowitz, profesor informatyki w City College w Nowym Jorku, porównuje komputer z ziarnem, a konkretne okoliczności historyczne z glebą, na której ziarno ma być zasiane: „Właściwe połączenie nasion, ziemi i uprawy jest niezbędne, aby sprzyjają wzrostowi pożądanych roślin i eliminują chwasty. Niestety, nasiona aplikacji komputerowych są skażone chwastami; grunt jest często źle przygotowany; a nasze metody uprawy są wysoce niedoskonałe ”. Nie można winić Mowshowitza za błędne odczytanie historii technologii, ale istnieje bardziej optymistyczny sposób zrozumienia tego, co powiedział: my, kultywujący, możemy faktycznie interweniować na wszystkich trzech etapach i to od nas zależy określenie warunków, na których zdecydowaliśmy się to zrobić. Cena za brak interwencji może być dość wysoka. Już w 1974 roku Raymond Williams, brytyjski krytyk kultury, ostrzegał nas, że determinizm technologiczny nieuchronnie wytwarza pewien determinizm społeczny i kulturowy, który „ratyfikuje społeczeństwo i kulturę, którą mamy teraz, a zwłaszcza jej najpotężniejsze wewnętrzne kierunki”. Williams martwił się, że umieszczenie technologii w centrum naszej intelektualnej analizy z pewnością sprawi, że będziemy postrzegać to, co tradycyjnie rozumieliśmy, jako problem polityki, z jej złożonymi i trudnymi kwestiami etyki i moralności, jako problem technologii, eliminującej lub zaciemniając wszystkie nierozwiązane dylematy filozoficzne. „Jeśli przyczyną jest medium – czy to druk, czy telewizja -”, napisał Williams w swojej bestsellerowej „Telewizja: technologia i forma kulturowa”, „wszystkie inne przyczyny, wszystko, co ludzie zwykle postrzegają jako historię, są natychmiast sprowadzane do skutków”. Dla Williamsa nie był to koniec historii, którą zapoczątkowała technologia; był to koniec myślenia historycznego, a wraz z końcem myślenia historycznego kwestie sprawiedliwości również tracą na znaczeniu. Williams poszedł dalej w swojej krytyce, argumentując, że determinizm technologiczny uniemożliwia nam również uznanie tego, co jest polityczne w samej technologii (rodzaj praktyk i wyników, które zwykle faworyzuje), ponieważ jej łatwiejsze do zaobserwowania cechy zwykle zajmują lwią część uwagi opinii publicznej , co utrudnia ocenę innych, bardziej zgubnych cech. „To, co gdzie indziej postrzegane jest jako skutki i jako takie podlega kwestionowaniu społecznemu, kulturowemu, psychologicznemu i moralnemu”, napisał Williams, „jest wykluczone jako nieistotne w porównaniu z bezpośrednimi fizjologicznymi, a zatem psychicznymi skutkami mediów jako takich”. Innymi słowy, o wiele łatwiej jest krytykować Internet za to, że nas głupi, niż zapewniać spójną moralną krytykę jego wpływu na demokratyczne obywatelstwo. A pod naporem ahistorycznych notatek o wyzwalającym potencjale Internetu, nawet stawianie takich moralnych pytań może wydawać się zbyt sprzeczne. Biorąc pod uwagę reakcję świata na rewolucję Iranu na Twitterze, trudno nie docenić przewidywania słów Williamsa. Zamiast mówić o siłach religijnych, demograficznych i kulturowych, które wywoływały nastroje protestacyjne w tym kraju, zależało nam tylko na czołowej roli Twittera w organizowaniu protestów i jego odporności w obliczu cenzury. Podobnie, gdy wielu zachodnich obserwatorów dało się ponieść dyskusji o konsekwencjach rewolucji na Facebooku w Egipcie w kwietniu 2008 r. – kiedy tysiące młodych Egipcjan zostało zmobilizowanych przez Internet, aby wyrazić swoją solidarność z robotnikami tekstylnymi, którzy strajkowali w biednym przemysłowym mieście Mahala. zadał sobie trud spytania, czego tak naprawdę chcą pracownicy. Jak się okazuje, protestowali przeciwko skrajnie niskim płacom w swojej fabryce. Był to przede wszystkim protest dotyczący kwestii pracowniczych, który został skutecznie powiązany z szerszą kampanią reform konstytucyjnych przeciwko Mubarakowi. Kiedyś, z różnych powodów, element protestów robotniczy wygasł, inne próby rewolucji na Facebooku – tej mającej konsekwencje w świecie fizycznym – nie odniosły skutku, mimo że przyciągnęły w sieci setki tysięcy zwolenników. Jak można było się spodziewać, większość doniesień w zachodnich mediach koncentrowała się na Facebooku, a nie na problemach pracowniczych lub żądaniach pod adresem Mubaraka, by zakończył nadzwyczajną regułę narzuconą Egiptowi od 1981 roku. Jest to kolejne mocne przypomnienie, że skupianie się na technologiach, a nie siły społeczne i polityczne, które ich otaczają, można wyciągnąć błędne wnioski. Dopóki takie protesty będą nadal postrzegane głównie przez pryzmat technologii, za pomocą której zostały zorganizowane – a nie, powiedzmy, przez żądania i motywację protestujących – polityka Zachodu przyniesie niewiele dobrego, bez względu na dobre intencje. . Dlatego najbardziej niebezpieczne w uleganiu determinizmowi technologicznemu jest to, że utrudnia to naszą świadomość tego, co społeczne i polityczne, przedstawiając je zamiast tego jako technologiczne. Technologia jako Kantowska kategoria rozumienia świata może po prostu być zbyt ekspansjonistyczna i monopolistyczna, obejmując wszystko, co nie zostało jeszcze właściwie zrozumiane i skategoryzowane, niezależnie od tego, czy jego korzenie i natura są technologiczne. (To właśnie miał na myśli niemiecki filozof Martin Heidegger, mówiąc, że „istota technologii w żadnym wypadku nie jest technologiczna”). Ponieważ technologia taka jak gaz wypełni każdą przewidzianą przestrzeń koncepcyjną, Leo Marx, emerytowany profesor z Massachusetts Institute of Technology opisuje ją jako „niebezpieczną koncepcję”, która może „dławić i zaciemniać analityczne myślenie”. Jak zauważa: „Ze względu na swoją szczególną podatność na urzeczowienie, na posiadanie magicznej mocy autonomicznej istoty, technologia jest głównym czynnikiem przyczyniającym się do tego gromadzącego się poczucia… politycznej niemocy. Popularność przekonania, że ​​technologia jest podstawową siłą kształtującą ponowoczesny świat, jest miarą naszego. .. lekceważenie norm moralnych i politycznych, przy dokonywaniu decydujących wyborów dotyczących kierunku społeczeństwa ”. Lekceważenie standardów moralnych i politycznych, przed którymi ostrzega Leo Marxis, jest w pełni widoczne w nagłej potrzebie promowania wolności w Internecie bez wyrażania, jak dokładnie pasuje ona do reszty programu promocji demokracji. Nadzieja, że ​​Internet może uwolnić Egipcjan lub Azerów od autorytarnego ucisku, nie jest dobrym pretekstem, aby kontynuować potajemnie popierając same źródła tego ucisku. Trzeba przyznać, że Hillary Clinton nie popadła w determinizm technologiczny w swoim przemówieniu o wolności w Internecie, mówiąc, że „chociaż jest jasne, że rozprzestrzenianie się tych technologii [informacyjnych] zmienia nasz świat, nadal nie jest jasne, jak ta transformacja wpłynie na prawa człowieka i dobrobyt większości światowej populacji ”. Jednak przy drugim czytaniu wydaje się to bardzo dziwnym stwierdzeniem. Jeśli nie jest jasne, jak te technologie wpłyną na prawa człowieka, jaki jest sens ich promowania? Czy to tylko dlatego, że brak jest jasności co do tego, co oznacza i czym jest wolność w Internecie? Takie zamieszanie w szeregach decydentów może tylko wzrosnąć, ponieważ formułują oni politykę wokół wysoce niejednoznacznej koncepcji. Leo Marx sugeruje, że sposobem rozwiązania zagrożeń związanych z koncepcją technologii jest ponowne przemyślenie, czy nadal warto stawiać ją w centrum wszelkich badań intelektualnych, nie mówiąc już o teorii działania. Im więcej dowiadujemy się o technologii, tym mniej ma sens skupianie się wyłącznie na niej, w oderwaniu od innych czynników. Albo, jak sam Marks to ujął, „paradoksalnym rezultatem coraz większej wiedzy i zrozumienia technologii jest poddanie w wątpliwość uzasadnienia tworzenia„ technologii / z jej niezwykle niejasnymi granicami; koncentruje się na oddzielnej dziedzinie specjalistycznej nauki historycznej (lub innej dyscyplinarnej) ”. Innymi słowy; nie jest jasne, co zyskujemy, traktując technologię jako samodzielnego aktora historycznego, ponieważ zazwyczaj ukrywa ona więcej na temat polityki społecznej; i moc, niż objawia. Jeśli chodzi o Internet; stypendium dotychczas szło w przeciwnym kierunku. Centra akademickie zajmujące się badaniem Internetu – intelektualnych bastionów centryzmu Internetu – mnożą się na kampusach uniwersyteckich, a tym samym przyczyniają się do jego dalszej reifikacji i dekontekstualizacji. To, że praktycznie każda dzisiejsza gazeta lub magazyn chwali się wywiadami z „guru Internetu”, jest raczej niepokojącym znakiem, ponieważ jakkolwiek głęboka znajomość architektury Internetu oraz jego różnorodnej i zabawnej kultury nie rekompensuje ich niedostatecznego zrozumienia jak funkcjonują społeczeństwa, nie mówiąc już o społeczeństwach niezachodnich. To oznaka tego, jak głęboki jest Internetocentryzm zepsuło publiczny dyskurs, że ludzie, którzy mają raczej pobieżną wiedzę na temat współczesnego Iranu, stali się źródłami informacji o irańskiej rewolucji na Twitterze, tak jakby dokładne spojrzenie na wszystkie tweety związane z Iranem mogło w jakiś sposób otworzyć szersze okno na politykę tego krajem niezwykle skomplikowanym niż dokładne studium naukowe jego historii.

Audyt Mózgu Hackera : Rosnące zagrożenia i luki w zabezpieczeniach

Chociaż wirusy sieciowe, robaki, ataki typu „odmowa usługi” (DoS) i nieautoryzowany dostęp zdalny wzrosły w latach 90. XX wieku, nie nastąpiła odpowiednia zmiana w obronie lub bezpieczeństwie w kulturze użytkowników Internetu. Oprogramowanie antywirusowe zostało wprowadzone w 1988 r. W celu rozwiązania narastającego problemu wirusów przenoszonych z dyskietek. Do połowy lat 90. główny wektor zagrożeń ze strony złośliwego oprogramowania pozostawał za pośrednictwem zainfekowanych dyskietek, ale większość użytkowników komputerów nie korzystała z oprogramowania antywirusowego. z powodu braku świadomości i spadku wydajności, którego doświadczyła większość użytkowników podczas korzystania z ochrony antywirusowej. Podobnie, stosowanie zapór ogniowych przed końcem lat 90. nie było tak powszechne jak to jest dziś. Większość użytkowników domowych oraz małych i średnich firm nie ma zapory ogniowej ani nawet nie wie, co to jest. Niestety, obecnie znaczny procent użytkowników domowych nadal łączy się z Internetem bez włączania pewnego rodzaju ochrony firewall. Wreszcie koncepcja aktualizacji i łatania oprogramowania w celu zapobiegania naruszeniom bezpieczeństwa potrzebowała wielu lat, zanim opinia publiczna zrozumie. Nawet dzisiaj duża liczba użytkowników Internetu nie aktualizuje ani nie łata swojego oprogramowania systemowego. Wielu uważa, że ​​nie jest to konieczne lub że nie ma zagrożenia. Inni nie rozumieją, co oznacza migająca ikona „Aktualizuj” na pasku zadań. Niestety jest to równie niebezpieczne, jak ignorowanie kontrolki „Sprawdź olej” na desce rozdzielczej samochodu. Te trzy obszary – ochrona antywirusowa, zapory ogniowe i łatanie oprogramowania – są niezbędne do zapewnienia podstawowego poziomu bezpieczeństwa użytkownikom Internetu. Obecnie duża liczba użytkowników nie rozumie, jak korzystać z tych technik, co sprawia, że ​​rozprzestrzenianie się złośliwego oprogramowania i innych metod ataku jest banalnie łatwe. Wykładniczy roczny wzrost łączy szerokopasmowych lub szybkich łączy domowych pogarsza sytuację. infrastruktura, która jest od niego zależna, jest narażona na katastrofalną awarię, która nastąpi w najbliższej przyszłości.