Ile Google wie o Tobie : Podsumowanie

Stoimy w obliczu dwóch głównych zagrożeń dotyczących mapowania i tworzenia obrazów online: poufnych informacji, które ujawniamy w ramach naszych interakcji z tymi usługami, oraz samej treści. Nasze interakcje ujawniają interesujące nas lokalizacje i czas, w którym byliśmy nimi zainteresowani. Możemy ujawnić plany podróży, poufne obiekty, nasze domy lub inne wrażliwe miejsca. Usługi wyznaczania kierunków wskazują konkretne miejsca docelowe, a także prawdopodobne trasy, którymi się wybierzesz. Sieci społecznościowe pojawiają się, gdy udostępniamy te lokalizacje za pośrednictwem hiperłączy naszym przyjaciołom, rodzinom, współpracownikom i czytelnikom naszych blogów. Nawet pozornie niespokrewnione osoby mogą zostać połączone, ponieważ badają podobne lokalizacje lub szukają wskazówek. Sama treść również budzi istotne obawy dotyczące bezpieczeństwa. Twój dom, samochód, miejsce pracy, być może nawet Ty, prawdopodobnie istnieje w terabajtach danych zdjęciowych obejmujących Google Earth, Mapy Google, StreetView i podobne usługi. W przyszłości możemy śmiało założyć, że liczba czujników zbierających informacje wzrośnie. Oprócz obrazów statycznych zobaczymy wideo, być może połączone z danymi z naziemnych czujników dźwięku. Widzimy teraz wczesne podejścia. Firma Wild Sanctuary z siedzibą w Kalifornii ponad 3500 godzin „pejzaży dźwiękowych” i oprogramowania, które może nakładać odpowiednie nagrane dźwięki na Google Earth. AstroVision niedawno ogłosił swoje plany dostarczenia „pierwszego na żywo, ciągłego, rzeczywistego koloru obrazu Ziemi z kosmosu”. [36] W publicznie dostępnych systemach widzimy tylko stosunkowo oczyszczone dane. Jednak, chociaż prawdopodobnie dzieje się to dzisiaj, w przyszłości łatwo wyobrazić sobie międzynarodowe korporacje sponsorujące przeloty korporacyjne w ważnych miejscach. Dziś widzimy potężną, opartą na współpracy analizę zdjęć za pośrednictwem takich witryn, jak Google Sightseeing i Wikimapia, ale w przyszłości możemy spodziewać się, że zaawansowane automatyczne przetwarzanie rozszerzy te zorientowane na człowieka podejścia. Postępy w rozpoznawaniu twarzy, wizji maszynowej, eksploracji danych, a nawet automatycznym odczytywaniu ruchu warg mogą pewnego dnia zostać zastosowane do danych z czujników w skali globalnej. Bardziej niepokojące jest to, że przyszły postęp można zastosować do wszystkich danych historycznych. Chociaż system eksploracji danych nie jest obecnie w stanie zidentyfikować wszystkich twarzy w StreetView Google, przyszły system może mieć taką możliwość.  W ich sercu strony z mapami, wskazówkami i zdjęciami polegają na łączeniu danych z czujników z innymi informacjami semantycznymi, takimi jak dane o ruchu drogowym, w jednolite, łatwe w użyciu narzędzie. Chciałbym zasugerować proste do wdrożenia środki zaradcze, które pomogą chronić Twoją prywatność przed czujnikami monitorującymi. Niestety ten dżin wyskoczył z butelki; dopóki nie zobaczymy poważnych zmian w przepisach dotyczących prywatności, musimy poszukać nowego podejścia do prywatności i nauczyć się żyć w tym środowisku. Obecnie państwa narodowe mogą stosować tak ekstremalne środki, jak pociski antysatelitarne , a armie mogą stosować oszustwa i kamuflaż na polu bitwy, próbując ograniczyć skuteczny nadzór. Obie te rzeczy są nierealne dla nas, przeciętnych obywateli. Jak trafnie ujął to jeden z przyjaciół: „Nie chcę mieszkać w miejscu, w którym muszę nosić maskę narciarską w moim lokalnym centrum handlowym, aby chronić swoją prywatność”

Zaufanie w Cyberspace : Podejście oparte na próbach

W tym binarnym podejściu do generowania kluczy i zarządzania nimi  każda kategoria jest traktowana jako ciąg binarny reprezentujący ścieżkę od korzenia trie do liścia. Zarządzanie strukturą nie sugeruje częściowej kolejności wierzchołków, chociaż zachowana jest idea wyprowadzania klucza w celu zminimalizowania liczby rozproszonych kluczy. Takie podejście zmniejsza złożoność zarządzania kluczami, wykorzystując wewnętrzne właściwości binarnego trie. Ta struktura ma wiele właściwości, które sprawiają, że nadaje się do kontroli dostępu. Ponieważ klucze nie są ściśle powiązane z kontrolerami AC, większość aktualizacji zasad dostępu do danych nie wymaga znaczących zmian w strukturze, co ogranicza generowanie kluczy, a tym samym ponowne wprowadzanie danych.

Ciemna Strona Neta : Wicked Fix

W 1966 roku magazyn University of Chicago opublikował krótki, ale niezwykle prowokacyjny esej Alvina Weinberga, wybitnego fizyka i szefa Oak Ridge National Laboratory, niegdyś ważnej części Projektu Manhattan. Zatytułowany „Czy technologia może zastąpić inżynierię społeczną?” esej, który najlepiej można opisać jako „cri de coeur” inżyniera, dowodził, że „głębokie i nieskończenie skomplikowane problemy społeczne” można obejść i zredukować do prostszych problemów technologicznych. Te ostatnie z kolei można rozwiązać, stosując do nich „szybkie poprawki technologiczne”, poprawki, które „mieszczą się w zasięgu współczesnej technologii i które albo wyeliminowałyby pierwotny problem społeczny bez konieczności zmiany postaw społecznych jednostki, albo tak zmieniłby problem, aby jego rozwiązanie było bardziej wykonalne ”. Jednym z powodów, dla których ten esej przyciągnął tak wiele uwagi, był fakt, że ostatecznym rozwiązaniem technologicznym Weinberga – tym, który mógł zakończyć wszystkie wojny – była bomba wodorowa. Argumentował, że „znacznie zwiększa to prowokację, która przyspieszyłaby wojnę na dużą skalę”, a więc Sowieci uznają jej destrukcyjną siłę i w rezultacie będą utrzymywać znacznie mniej militarystyczną postawę. To był interesujący argument do wysunięcia w 1966 r., A esej jest nadal aktualny. Fascynacja Weinberga z „poprawkami technologicznymi” był w dużej mierze wynikiem frustracji inżyniera z inną, niezmiennie mniej podatną na opanowanie i bardziej kontrowersyjną alternatywą tamtych czasów: socjotechniką. Inżynierowie społeczni, w przeciwieństwie do technologów, próbowali wpływać na popularne postawy i zachowania społeczne obywateli poprzez to, co nietechnologowie nazywają „polityką”, ale to, co Weinberg określił jako „urządzenia społeczne”: edukację, regulacje i skomplikowaną mieszankę zachęt behawioralnych. Biorąc pod uwagę, że technologia może pomóc w skuteczniejszej realizacji tych samych celów, Weinberg uważał, że inżynieria społeczna jest zbyt kosztowna i ryzykowna. Pomogło również to, że „poprawki technologiczne” nie wymagały głębokich zmian w ludzkim zachowaniu, a zatem były bardziej niezawodne. Jeśli ludzie są narażeni na napady nadmiernego picia, preferowaną reakcją Weinberga nie byłoby organizowanie publicznej kampanii ostrzegającej ich przed odpowiedzialnym piciem lub nakładaniem wyższych kar za jazdę pod wpływem alkoholu, ale zaprojektowanie pigułki, która pomogłaby osłabić wpływ alkoholu. Ludzka natura była zepsuta, a rozwiązanie Weinberga polegało po prostu na zaakceptowaniu tego i obejściu tego. Weinberg nie miał złudzeń, że eliminuje pierwotne przyczyny problemu; wiedział, że rozwiązania technologiczne nie mogą tego zrobić. Wszystko, co technologia mogła zrobić, to złagodzić społeczne konsekwencje tego problemu, „zapewnić inżynierowi społecznemu szersze możliwości, uczynić trudnymi do rozwiązania problemy społeczne mniej ewolucja.” Było to pragmatyczne podejście pragmatycznego człowieka.

Po opublikowaniu eseju Weinberga zapoczątkował gorącą debatę między technologami a inżynierami społecznymi. Ta debata trwa do dziś, po części dlatego, że Google, założone przez duet niezwykle ambitnych inżynierów biorących udział w krucjacie mającej na celu „uporządkowanie światowych informacji i uczynienie ich powszechnie dostępnymi i użytecznymi”, umieściło produkcję poprawek technologicznych na czymś w rodzaju skala przemysłowa. Udostępnić wiedzę ze świata wszystkim? Zrób zdjęcia wszystkich ulic na świecie? A może chcesz załadować światowe książki do skanera i zająć się później konsekwencjami? Nazwij problem, który ma do czynienia z informacjami, a Google już się tym zajął.

Audyt Mózgu Hackera : Ataki terrorystyczne z września 2001 r

Jednoczesny cyberatak na infrastrukturę krytyczną nie towarzyszył atakom terrorystycznym z 11 września 2001 r. Wyobraź sobie, ile szkód byłoby, gdyby w tym samym czasie terroryści zaatakowali budynki w Nowym Jorku i Waszyngtonie, a cyberataki miały miejsce na łączność. systemy używane przez policję, straż pożarną i inne zespoły ratownicze. Jaka byłaby narodowa reakcja, gdyby lokalne miejskie systemy komunikacji zbiorowej, krajowe sieci przesiadkowe lub system śledzenia lotów Federalnej Administracji Lotniczej były jednocześnie zakłócone lub wyłączone? Mieliśmy szczęście, że wydarzenia tego poranka były ograniczone tylko do trzech obszarów geograficznych. Czy A1-Kaida planowała dodać cyberataki jako mnożnik siły, ale nie była w stanie lub zdecydowała się tego nie robić? Możemy nigdy nie poznać odpowiedzi. Wiemy, że komputery odkryte w kryjówkach A1-Kaidy w Pakistanie kilka miesięcy po atakach zawierały szczegółowe informacje o wielu infrastrukturach krajowych, w tym mapy, zdjęcia i dane techniczne dotyczące ich operacji i współzależności. Co planowali terroryści? Były dodatkowe nadchodzące ataki na infrastrukturę krytyczną? Pomimo tragicznych strat w ludziach i mienia fizycznego, w następstwie ataków wyciągnięto wiele wniosków. Na przykład jedno centralne biuro telefoniczne zlokalizowane w sąsiedztwie kompleksu World Trade Center obsługuje większość budynków biurowych na Dolnym Manhattanie. Setki tysięcy linii telefonicznych łączy się z budynkiem Verizon przy 140 West Street, a także kilka milionów obwodów danych. Obok budynku, w WTC 7, znajdowały się dwie podstacje elektryczne Con Edison, które obsługiwały większość Lower East Side i praktycznie każdy budynek od Duane Street do Fulton Street do South Ferry. zniszczył obie podstacje. Na szczęście budynek Verizon nie zawalił się, ale wraz z wieloma innymi budynkami graniczącymi z kompleksem WTC doznał znacznych zniszczeń. Stalowe belki i inne ciężkie odłamki przebiły wiele sekcji ścian zwróconych w stronę kompleksu WTC, wnikając w głąb rozdzielni i biur. Kiedy WTC upadło, duża część stalowej ramy tego budynku oparła się o budynek Verizon, powodując dodatkowe uszkodzenia. Na wielu zdjęciach zrobionych tego dnia niewidoczny był chaos pod chodnikami i ulicami. Światłowody i miedziane okablowanie wchodzące do budynku Verizon spod ulic zostało fizycznie uszkodzone przez duże stalowe dźwigary, które przebiły chodniki na głębokość kilku stóp. . Miliony galonów wody z uszkodzonych wodociągów, rurociągów parowych i rzeki Hudson wpadły do ​​podziemnych kanałów i komór, które przewoziły nie tylko kable telekomunikacyjne, ale także przewody pocztowe pneumatyczne, kable elektryczne i inne elementy infrastruktury. Uszkodzenia objęły kilka bloków wokół kompleksu WTC. Kilka dużych wiązek podziemnych kabli światłowodowych tuż przed budynkiem Verizon zostało dosłownie przeciętych na pół przez gruz, a następnie zamkniętych w wodzie, błocie i parze uciekającej z uszkodzonych przewodów wysokiego ciśnienia. Ze względu na poważne uszkodzenia podziemnych kanałów i tuneli, Verizon i Con Edison szybko zdecydowali się przywrócić działalność przy użyciu sieci ulicznej. Przez wiele tygodni po 11 września chodniki w okolicy kompleksu World Trade Center stały się ścieżkami dla kilometrów kabli zasilających i komunikacyjnych. Lata fuzji i przejęć firm telekomunikacyjnych w znacznym stopniu ograniczyły redundancję wprowadzoną wcześniej do sieci. Na przykład nowojorska giełda zaprojektowała kilkanaście oddzielnych ścieżek komunikacyjnych, z których mniej więcej połowa kończy się w budynku Verizon, a pozostała część prowadzi różnymi trasami do innych centrów przełączania położonych dalej na północ. 11 września istniało jeszcze kilkanaście „oddzielnych ścieżek”, ale były one tylko wirtualne – wszystkie poza jedną fizycznie zakończone w budynku Verizon.  Wiele dużych obszarów metropolitalnych ma dwa główne centralne centrale telefoniczne, co jest pozostałością po czasach, gdy AT&T zdominowała rynek telefoniczny. Od czasu ataków terrorystycznych wiele firm miejskich ponownie zbadało fizyczne ścieżki, którymi łączą się ich obwody komunikacyjne do ich lokalnej centrali, upewniając się, że nie płacą za to, co w rzeczywistości oznacza „wirtualną” różnorodność. Utrata wież komunikacyjnych i infrastruktury w połączeniu z ogromnym przeciążeniem połączeń, zakłóciło działanie usługi telefonii komórkowej na Manhattanie tego dnia, czyniąc ją praktycznie bezużyteczną przez większość dnia. przyzwyczajony do korzystania z usług telefonii komórkowej jako podstawowego środka komunikacji.

Co ciekawe, chociaż zarówno systemy telefonii stacjonarnej, jak i komórkowej poniosły znaczną utratę usług na obszarze wokół kompleksu WTC, większość użytkowników Internetu w sąsiednich budynkach była w stanie komunikować się za pomocą wiadomości błyskawicznych lub poczty elektronicznej w czasie kryzysu. Ze względu na wiele połączeń krzyżowych i strukturę sieciową Internetu, dane automatycznie przechodzą przez fizycznie uszkodzone sekcje. Na szczęście tego ranka nie było bezpośrednich ataków na mechanizmy internetowe w połączeniu z atakami fizycznymi. Ostatnie kilka lat przyniosło wiele „alarmów alarmowych” dla słabych punktów naszej infrastruktury krytycznej i zależności od sieci cybernetycznych. Ataki terrorystyczne we wrześniu 2001 r. Były zdecydowanie najpoważniejszym niedawnym przykładem, ale dwa inne zdarzenia cybernetyczne, często określane jako „Wakeup call” lub „przełomowe wydarzenia” w Departamencie Obrony USA zasługują na wzmiankę

Lean Customer Development : W ciągu 10 wywiadów: pojawiają się wzorce

W ciągu 10 wywiadów prawdopodobnie usłyszałeś jakieś powtórzenia. Może to przybrać postać dwóch lub trzech osób wyrażających podobne frustracje, motywacje, ograniczenia procesu lub rzeczy, które chcieliby zrobić.

Kwestionowanie wzorców

Kiedy trzykrotnie usłyszałem jakąś koncepcję, świadomie próbuję ją zakwestionować w przyszłych wywiadach. Używam słowa wyzwanie, ponieważ celem jest tutaj przetestowanie wzorca, a nie założenie, że się utrzyma. Kuszące jest użycie tak lub nie lub „Zgadzasz się?” pytania dotyczące przyszłych uczestników. To wprowadza stronniczość. Skoncentruj się na pytaniu o scenariusze i przeszłe zachowania i pozwól rozmówcy w naturalny sposób potwierdzić (lub nie) wzór. Jeśli temat nie pojawia się w sposób naturalny, pomocny sposób na zakwestionowanie tego schematu jak widzieliście, to metoda „innych ludzi”. Mówisz o wynalezionych „Innych ludziach” i twierdzą, że czują inaczej lub działają w odwrotny sposób niż wzorzec, który słyszałeś. Na przykład:

Wzór

Wiele osób mówiło, że szukają informacji o samochodach w internecie, a następnie odwiedzają dealera.

Wyzwanie

Możesz powiedzieć coś przeciwnego: „Inni ludzie powiedzieli mi, że wolą najpierw odwiedzić dealera i przetestować samochód, a następnie poszukać informacji online. Czy możesz mi powiedzieć, jak kupujesz samochody?”

Upewnij się, że po stwierdzeniu „inni robią to” zadajesz pytanie. To prowokuje rozmówcę do zwrócenia większej uwagi na to, co powiedziałeś i udzielenia bardziej szczegółowej odpowiedzi. * Niezależnie od tego, czy zgadza się, czy nie zgadza się z Twoimi mitycznymi innymi ludźmi, zareaguje na porównanie, dokładnie opisując, czym się różni lub jest do nich podobny .

Nie masz jeszcze wzorów?

A co, jeśli nie słyszysz wzorców? Można porozmawiać z 10 lub więcej osobami i usłyszeć wiele odpowiedzi, które wydają się autentyczne i wywołują emocje, ale nie wydają się układać w pewien schemat. Zwykle oznacza to, że kierujesz reklamy do zbyt szerokiego grona klientów. Możesz rozmawiać z wieloma różnymi typami ludzi, z których wszyscy są wiarygodnymi klientami, ale mają różne potrzeby. Zalecam zawężenie typu ludzi, z którymi rozmawiasz. Spróbuj skupić się na jednym stanowisku, stylu życia, kompetencjach technicznych, rodzaju firmy lub innej ograniczającej kategorii. Pomoże Ci to szybciej dostrzec wzorce, abyś mógł kontynuować naukę i nie denerwować się. Nie martw się, że celujesz zbyt wąsko – Twoim celem jest jak najszybsze sprawdzenie lub unieważnienie.

Ile Google wie o Tobie : Widok na poziomie ulicy

Tam, gdzie zdjęcia z góry znalezione w witrynach z mapami mają wystarczającą rozdzielczość, aby wyświetlić samochody i ludzi, w kilku dużych miastach, Google Street View znacznie zwiększa zagrożenie dla prywatności . W StreetView możesz bardzo wyraźnie zobaczyć osoby. Jeśli mieszkasz w miejscu, które zostało sfotografowane przez StreetView, prawdopodobnie Ty, Twój dom, Twój samochód lub ktoś, kogo znasz, znajduje się w systemie.  Należy zauważyć, że w odpowiedzi na obawy dotyczące prywatności Google rozpoczął testowanie technologii zacierania twarzy w połowie 2008 r., Zgodnie z planem publikacji tej książki. Widok z poziomu ulicy zależy od obrazów zebranych przez pojazdy wyposażone w kamery. Pojazdy te poruszają się po ulicach z toczącymi się kamerami. Duża siła robocza, niewiele dziedzin omówione, ale te, które zostały opisane, są dość szczegółowe i budzą szereg wątpliwości; osoby odwiedzające schroniska dla ofiar przemocy domowej, plażowicze i patroni księgarni dla dorosłych. Ciekawym przypadkiem, który ilustruje obawy o prywatność, jest sprawa prawnika EFF Kevina Bankstona, który został sfotografowany zarówno przez aparaty Google, jak i przez system A9 firmy Amazon, z których oba wygenerowały znaczną negatywną prasę.  Punktem do nauki jest to, że jeśli tworzysz system mający wpływ na prywatność, nie powinieneś dołączać zdjęć czołowych obrońców prywatności.

Zaufanie w Cyberspace : Rozwiązanie do zarządzania kluczami

Autorzy najpierw proponują algorytm konstruowania częściowego rzędu na AC. Porządek częściowy jest reprezentowany przez zredukowany ukierunkowany graf, w którym węzły są AC, a łuki (skierowane krawędzie) łączą porównywalne elementy: od większych do mniejszych. Skonstruowany wykres, zwany V-grafem, ma dwie dodatkowe właściwości zwane warunkami V: (1) liczba łuków wchodzących do węzła wynosi 2 lub 0 oraz (2) dla dowolnych dwóch węzłów jest co najwyżej jeden węzeł, z którego łuki prowadzą do nich obu. Projekt proponowanego systemu zarządzania kluczami przedstawiono na rysunkach . Rysunek pierwszy  przedstawia fazę ochrony wykonywaną przez organ centralny (CA) po stronie serwera danych.

Po pierwsze, tabela kontroli dostępu zawierająca prawa dostępu użytkowników (1) jest przetwarzana przez moduł porządkujący, który konstruuje relację kolejności na AC (2), reprezentowaną przez skierowany zredukowany V-graf. Moduł przypisywania kluczy, który jako dane wejściowe przyjmuje V-graph kontroli dostępu (3) i zwraca V-wykres kluczy publicznych i tajnych kluczy dystrybuowanych do użytkowników systemu (4), moduł szyfrowania danych szyfruje dane, wykorzystując tabelę kontroli dostępu i skonstruowany wykres klawiszy (5). Końcowym rezultatem tej fazy (6) są zaszyfrowane dane dostarczone wraz z indeksami odpowiednich kluczy deszyfrujących. Rysunek drugi przedstawia fazę zapytania wykonywaną przez użytkowników po stronie klienta.

Najpierw żądanie (1) jest przetwarzane przez moduł pozyskiwania klucza. W celu uzyskania klucza deszyfrującego dla żądanych danych, z bazy danych pobierany jest indeks żądanego klucza (2), a następnie generowany jest klucz z tym indeksem (3) na podstawie schematu DH, przy użyciu klucza prywatnego użytkownika i hierarchii kluczy publicznych (2). Uzyskany klucz deszyfrujący (4) jest używany przez moduł deszyfrujący do odszyfrowania żądanych danych (4) otrzymanych z bazy danych. Zalety. Jest to pierwsza tego rodzaju praca polegająca na zaproponowaniu rozwiązania do generowania kluczy zaprojektowanego specjalnie do kontroli dostępu. Proponowane rozwiązanie eliminuje potrzebę tworzenia wielu kopii kluczy danych i zmniejsza ilość miejsca wymaganą przez użytkownika do jednego klucza. Poprawę osiąga się poprzez zastosowanie proponowanego schematu generowania klucza DH. Rozwiązanie ogranicza również wymagany rozmiar informacji publicznej. Ograniczenia. Budowa algorytmu i schematów generowania jest bardzo złożona i kosztowna. Ponownie, aktualizacje praw dostępu powodują przebudowę hierarchii i obowiązkowe generowanie kluczy, co w większości przypadków prowadzi do ponownego wprowadzenia danych.

Ciemna Strona Neta : Dlaczego technologie nigdy nie są neutralne

Jeśli determinizm technologiczny jest niebezpieczny, to jest też jego przeciwieństwo: nijaka odmowa dostrzeżenia, że ​​pewne technologie, z samej swojej konstytucji, z większym prawdopodobieństwem przyniosą określone skutki społeczne i polityczne niż inne technologie, gdy zostaną osadzone w umożliwiających środowiskach. W rzeczywistości nie ma bardziej banalnego, dwuznacznego i głęboko mylącego nieporozumienia niż „technologia jest neutralna”. Często słyszymy, że wszystko zależy od tego, jak zdecyduje się użyć danego narzędzia: nożem można kogoś zabić, ale można nim też wyrzeźbić drewno. Neutralność technologii jest głęboko zakorzenionym tematem w intelektualnej historii cywilizacji zachodniej. Boccaccio poruszył kilka interesujących pytań na ten temat w The Decameron w połowie XIV wieku. „Kto nie wie, czym jest dobre wino dla zdrowych. . . a jak niebezpieczne dla chorych? Czy mamy zatem powiedzieć, że wino jest złe tylko dlatego, że szkodzi gorączkującym? … Broń chroni dobro tych, którzy pragną żyć w pokoju; Niemniej jednak; często przelewają krew, nie przez jakiekolwiek zło, które im towarzyszy, ale przez niegodziwość ludzi, którzy używają ich do niegodnych celów ”. Neutralność Internetu jest często przywoływana również w kontekście demokratyzacji. „Technologia jest jedynie narzędziem, otwartym zarówno na szlachetne, jak i nikczemne cele. Tak jak radio i telewizja mogą być nośnikami pluralizmu informacji i racjonalnej debaty, tak też mogą być przejęte przez reżimy totalitarne w celu fanatycznej mobilizacji i całkowitej kontroli państwa” – pisze Hoover Larry Diamond z instytucji. Mowa o neutralności wkradła się również do przemówienia Hillary Clinton o wolności w Internecie, kiedy zauważyła, że ​​„tak jak stal może być używana do budowy szpitali lub karabinów maszynowych, a energia jądrowa może zasilać miasto lub je niszczyć, tak nowoczesne sieci informacyjne i technologie, które obsługują, można wykorzystać na dobre lub na złe ”. Najbardziej interesującą rzeczą w analogii Clintona między Internetem a energią jądrową jest to, że sugeruje ona, że ​​potrzeba więcej, a nie mniej nadzoru i kontroli nad Internetem. Nikt nie opowiada się dokładnie za tym, aby elektrownie jądrowe były eksploatowane tak, jak sobie tego życzą ich właściciele; pojęcie „wolności nuklearnej” jako środka wyzwolenia świata brzmi raczej absurdalnie. Projektanci produktów lubią myśleć o narzędziach jako o pewnych postrzeganych cechach. Zwykle nazywane „afordancjami” cechy te sugerują – a nie dyktują – w jaki sposób narzędzia mają być używane. Fotel może mieć afordancję do siedzenia, ale może też mieć afordancję do wybicia szyby; wszystko zależy od tego, kto patrzy i dlaczego. Fakt, że dana technologia ma wiele afordancji i jest otwarta na wiele zastosowań, nie wyklucza jednak potrzeby dokładnego zbadania jej konstytucji etycznej, porównania skutków jej społecznie korzystnych zastosowań z efektami społecznie szkodliwych zastosowań, oszacowania, które zastosowania są najprawdopodobniej przeważy, a na koniec zdecyduj, czy należy ustanowić jakiekolwiek łagodzące prawa i polityki, aby wzmocnić lub osłabić niektóre z następczych skutków. Na papierze technologia jądrowa jest piękna, złożona, bezpieczna i genialnie zaprojektowana; w rzeczywistości ma jedną osobliwą * afordancję ”, na którą większość społeczeństw nie może sobie pozwolić, a przynajmniej nie mogą sobie na nią pozwolić bez znaczących zabezpieczeń. Podobnie, powodem, dla którego większość szkół zabrania swoim uczniom noszenia noży, jest to, że takie zachowanie może prowadzić do rozlewu krwi. To, że nie wiemy, jak dokładnie noże będą używane w rękach młodych ludzi w każdej konkretnej sytuacji, nie jest wystarczająco mocnym powodem, aby im na to pozwolić; z drugiej strony wiedza o tym, jak można je nadużywać, nawet jeśli ryzyko nadużycia jest niewielkie, dostarcza nam wystarczających informacji, aby opracować ograniczającą politykę. Dlatego większość społeczeństw chce uniknąć niektórych afordancji noży (takich jak ich zdolność do ranienia ludzi) w pewnych kontekstach (takich jak szkoły). Główny problem z tezą „technologia jest neutralna”, dlatego jest jego zupełną bezużytecznością dla celów kształtowania polityki. Może stanowić przydatny punkt wyjścia dla niektórych prac akademickich w zakresie projektowania, ale po prostu nie zapewnia żadnych podstaw do rozsądnego kształtowania polityki, które często polega na znalezieniu właściwej równowagi między konkurencyjnymi towarami w określonych kontekstach. Jeśli technologia jest neutralna, a jej skutki społeczne są niepoznawalne – wszystko zależy od tego, kto jej używa i kiedy – wydaje się, że decydenci i obywatele mogą niewiele zrobić, aby ją kontrolować. Niewłaściwe użycie niektórych prostych technologii jest jednak tak powszechne i łatwe do uchwycenia, że ​​ich niepożądane w niektórych kontekstach są oczywiste; Trudno sobie wyobrazić, by ktoś na spotkaniu PTA twierdził, że noże są jedynie narzędziami, otwartymi zarówno na szlachetne, jak i nikczemne konteksty. Ale jeśli chodzi o bardziej złożone technologie – a zwłaszcza Internet, z jego mnóstwem zastosowań – ich warunkowa niechęć staje się znacznie mniej oczywista, z wyjątkiem być może bardzo wrażliwych kwestii (np. Dzieci uzyskujące dostęp do pornografii internetowej). Pogląd, że technologia jest neutralna, pozostawia decydentom niewiele do zrobienia poza analizą sił społecznych związanych z technologiami, a nie samych technologii. Ktoś mógłby powiedzieć, że jeśli chodzi o kooptację Internetu przez represyjne reżimy, nie należy winić internetu, a jedynie dyktatorów. To też nie jest odpowiedzialny pogląd. Nawet ci, którzy twierdzą, że logika technologii jest plastyczna przez logikę społeczeństwa, które ją przyjmuje, nie proponują zaprzestania zwracania uwagi na tę pierwszą. Irańska policja może bez końca monitorować serwisy społecznościowe, ale łatwo wyobrazić sobie świat, w którym Facebook zapewnia lepszą ochronę danych swoim użytkownikom, przez co policja może mieć trudniej dowiedzieć się więcej o Irańczykach na Facebooku. Podobnie łatwo jest wyobrazić sobie świat, w którym Facebook nie zmienia ilości danych użytkowników, które ujawnia publicznie, bez uprzedniego uzyskania od użytkownika wyraźnej zgody. Można więc wierzyć, że reżimy autorytarne nadal będą zagorzałymi użytkownikami internetu, ale można im to utrudnić. Dalszą drogą jest jasne zbadanie zarówno logiki technologii, jak i logiki społeczeństwa, które ją przyjmuje; w żadnym wypadku nie powinniśmy dawać technologiom – bez względu na to, czy jest to internet, czy telefony komórkowe – darmowego przejścia do etyki. Zbyt często projektowanie technologii po prostu ukrywa ideologie i programy polityczne ich twórców. Już samo to jest wystarczającym powodem, by zwrócić większą uwagę na to, komu najprawdopodobniej odniesie korzyść i komu zaszkodzi. To, że technologie mogą nie osiągnąć celów zamierzonych przez ich zwolenników, nie powinno nas odciągać od analizy celowości tych pierwotnych planów. Internet nie jest wyjątkiem. Etos mieszania Web 2.0, w którym nowe aplikacje można łatwo zbudować ze starych, jest po prostu kolejnym dowodem na to, że Internet wyróżnia się w generowaniu afordancji. Nic w tym nie wskazuje, że wszystkie takie afordancje sprzyjałyby demokratyzacji. Każdy z nich należy oceniać na własnych warunkach, a nie wrzucać go do jakiejś mitycznej „neutralności narzędziowej”. Zamiast tego powinniśmy dokładnie zbadać, które z nowo utworzonych afordancji prawdopodobnie będą miały cechy wzmacniające demokrację, a które mogą mieć właściwości tłumiące demokrację. Dopiero wtedy będziemy mogli wiedzieć, które afordancje musimy wspierać, a które potrzebujemy liczyć. Nieuniknione jest, że w wielu kontekstach niektóre afordancje w sieci, takie jak możliwość zachowania anonimowości podczas publikowania poufnych informacji, mogą być interpretowane w obie strony, na przykład pozytywnie jako sposób na uniknięcie rządowej cenzury, ale także negatywnie jako sposób na tworzenie skutecznej propagandy lub przeprowadzanie cyberataków. Nigdy nie będzie łatwego rozwiązania takich kłopotów. Ale jest to również rodzaj złożonej kwestii, która zamiast być przemilczana lub uznawana za niezmienną, powinna zostać rozwiązana w drodze demokratycznej debaty. Demokracje cały czas napotykają takie problemy. Jednak niezaprzeczalne wydaje się to, że odmawianie choćby myślenia w kategoriach afordancji i zamiast tego postulowanie „neutralności narzędziowej” nie jest szczególnie skutecznym sposobem na powstrzymanie niektórych nadużyć technologii.

Audyt Mózgu Hackera : Luki w infrastrukturze krytycznej

W połowie lat dziewięćdziesiątych administracja Clintona podjęła inicjatywę oceny wpływu Internetu na gospodarkę kraju i jego infrastrukturę. W ramach tych wysiłków przewodnicząca Komisja ds. Ochrony Infrastruktury Krytycznej zbadała infrastruktury krytyczne i znalazła wiele istotnych luk w zabezpieczeniach. Jesienią 1997 r. Komisja zaproponowała strategię ochrony narodu. Jej raport „Critical Foundations: Protecting America’s Infrastructures” wezwał do opracowania krajowego planu zapewniającego bezpieczeństwo coraz bardziej podatnej na zagrożenia i wzajemnie połączonej infrastruktury krytycznej w Stanach Zjednoczonych. W raporcie zauważono, że ochrona infrastruktury krytycznej to „odpowiedzialność wspólna zarówno dla sektora publicznego, jak i prywatnego”.

W kolejnej białej księdze, którą Biały Dom opublikowała wiosną 1998 r., Towarzysząc Prezydenckiej dyrektywie nr 63 (PDD 63), wyjaśniono, że armia i gospodarka kraju są w coraz większym stopniu zależne od niektórych infrastruktur krytycznych i systemów informacyjnych opartych na cyberprzestrzeni:

W przeszłości wiele krytycznych infrastruktur narodu było fizycznie i logicznie oddzielnymi systemami, które miały niewielką współzależność. Jednak w wyniku postępu technologii informacyjnej i konieczności poprawy wydajności infrastruktury te stają się coraz bardziej zautomatyzowane i wzajemnie powiązane. Te same postępy stworzyły nowe podatności na awarie sprzętu, błędy ludzkie, pogodę i inne przyczyny naturalne oraz ataki fizyczne i cyberataki. Konieczne będzie wyeliminowanie tych luk w zabezpieczeniach wymagają elastycznego, ewolucyjnego podejścia, które obejmuje zarówno sektor publiczny, jak i prywatny oraz chroni zarówno bezpieczeństwo wewnętrzne, jak i międzynarodowe. Ze względu na naszą siłę militarną przyszli wrogowie, czy to narody, grupy czy jednostki, mogą chcieć wyrządzić nam krzywdę w nietradycyjny sposób, w tym ataki w Stanach Zjednoczonych. Nasza gospodarka jest w coraz większym stopniu zależna od współzależnych i wspieranych cyberprzestrzeni infrastruktury, a nietradycyjne ataki na naszą infrastrukturę i systemy informatyczne mogą być w stanie znacząco zaszkodzić zarówno naszej sile militarnej, jak i naszej gospodarce.

Polityka administracji Clintona dotycząca infrastruktury krytycznej

Ochrona: Decyzja Prezydenta, Dyrektywa 63, 22 maja 1998

W PDD 63 uznano, że Stany Zjednoczone muszą opracować środki ochrony infrastruktury krytycznej kraju przed celowymi działaniami, które znacznie zmniejszyłyby jego możliwości. Niektóre z zidentyfikowanych pozycji obejmowały:

* Zdolność rządu federalnego do wykonywania podstawowych misji w zakresie bezpieczeństwa narodowego oraz do zapewnienia zdrowia i bezpieczeństwa ogółu społeczeństwa * Zdolność władz stanowych i lokalnych do utrzymania porządku i świadczenia minimalnych podstawowych usług publicznych

* Rola sektora prywatnego w zapewnianiu prawidłowego funkcjonowania gospodarki i świadczeniu podstawowych usług telekomunikacyjnych, energetycznych, finansowych i transportowych

W PDD 63 uznano również, że „wszelkie zakłócenia lub manipulacje tymi krytycznymi funkcjami muszą być krótkie, rzadkie, możliwe do opanowania, odizolowane geograficznie i minimalnie szkodliwe dla dobra Stanów Zjednoczonych”. W dyrektywie administracyjnej zaproponowano utworzenie pięciu nowych zasobów:

* Krajowy koordynator, którego zakres obejmował nie tylko ochronę infrastruktury krytycznej, ale także ochronę przed zagranicznym terroryzmem i zagrożeniami masowego rażenia w kraju.

* Narodowe Centrum Ochrony Infrastruktury (NIPC) w FBI utworzone w celu połączenia przedstawicieli FBI, DOD, USSS, energetyki, transportu, społeczności wywiadowczej i sektora prywatnego w bezprecedensową próbę wymiany informacji między agencjami we współpracy z sektorem prywatnym Zadaniem NIPC było zapewnienie głównych środków ułatwiających i koordynujących reakcję rządu federalnego na incydent, łagodzenie ataków, badanie zagrożeń i monitorowanie wysiłków na rzecz odbudowy.

* Centra wymiany informacji i analiz (ISAC) były zachęcane do tworzenia przez sektor prywatny we współpracy z rządem federalnym i wzorowane na centrach kontroli i zapobiegania chorobom.

* Krajowa Rada ds. Zapewnienia Infrastruktury miała zostać utworzona z liderów sektora prywatnego oraz urzędników stanowych i lokalnych, aby zapewnić wytyczne dotyczące formułowania polityki w planie krajowym.

* Biuro Zapewnienia Infrastruktury Krytycznej miało wspierać współpracę koordynatora krajowego z agencjami rządowymi i sektorem prywatnym przy opracowywaniu planu krajowego, a także pomagać w koordynowaniu krajowego programu edukacyjnego i uświadamiającego, a także spraw legislacyjnych i publicznych.

Z proponowanych zdolności wszystkie oprócz NIAC zostały wdrożone do końca dekady. Wszystkie te funkcje ostatecznie stały się częścią Departamentu Bezpieczeństwa Wewnętrznego USA w 2003 r. W trakcie tego procesu głównym zidentyfikowanym ryzykiem był atak na sieci cybernetyczne, wspólny wątek łączący wszystkie krytyczne infrastruktury. Zwrócono również uwagę, że niezawodne działanie sieci elektrycznej i systemu elektroenergetycznego ma fundamentalne znaczenie dla funkcjonowania infrastruktury krytycznej. Jednak internet jest dostępny na całym świecie, co czyni go prawdopodobną drogą dla przeciwnika, który chce zakłócić lub zdegradować te systemy. Publikacja PDD 63 wiosną 1998 r. Była punktem zwrotnym w zrozumieniu uzależnienia narodu w Internecie. Położył podwaliny pod organizacje, które ostatecznie zostały włączone do Departamentu Bezpieczeństwa Wewnętrznego. Przewidziano również, że organizacje terrorystyczne mogą pewnego dnia zaatakować krytyczne infrastruktury USA, myśląc wówczas, że przyszły atak na Stany Zjednoczone będzie odbywał się bitami i bajtami, a nie samolotami wlatującymi do budynków.

Lean Customer Development : Gratulacje! Unieważniłeś swoją hipotezę!

To niepokojące, gdy po raz pierwszy zdajesz sobie sprawę, że co najmniej jedno z Twoich początkowych założeń jest błędne. Spróbuj myśleć o tym jako o czymś pozytywnym. Praktycznie nikt nie rozpoznaje swojego rynku i produktu od razu za pierwszym razem, więc nie jest to refleksja na temata Ciebie ani Twojego produktu. Jeśli udało Ci się obiektywnie zaakceptować fakt, że klienci nie gryzą, to dobry znak. Pokazuje, że zostałeś wystarczająco zdyscyplinowany, aby mówić bez prowadzenia świadka i słuchać bez wstawiania swojego uprzedzenia. Co teraz? Cóż, jednym z powodów, dla których zadawałeś otwarte pytania, jest to, że nie tylko możesz dowiedzieć się, co, ale także dlaczego. Przyjrzyj się zachowaniom opisanym przez początkowego klienta docelowego. Spójrz na powody, które podał, dla podjęcia tych działań. Twoje notatki powinny zawierać wskazówki, który klient może być bardziej odpowiedni. Spójrz również na swoją początkową hipotezę. Jak byś to zmienił na podstawie tego, czego się nauczyłeś? Czy istnieją mniejsze założenia, które zostały przez Ciebie zweryfikowane lub unieważnione? Koniecznie zapisz to, czego się nauczyłeś, napisz nową hipotezę i zacznij od nowa. Za każdym razem staje się to łatwiejsze. A co najlepsze, zrobiłeś to w ciągu pięciu wywiadów. To znacznie lepsze niż po wprowadzeniu produktu na rynek!