Agile Leadership : Skoncentrowane rozmowy

Pisanie książki wymaga skupienia. Trudno o skupienie się. Może to mieć coś wspólnego z tym, dlaczego napisanie tego tekstu zajęło nam tak dużo czasu. Czas na skupienie się i czas na skoncentrowanie się na rozmowie nie będą się po prostu zdarzać. Dla większości z nas życie jest po prostu zbyt zajęte. Skupienie wymaga dyscypliny. Naukowcy z Laboratorium interakcji człowiek-komputer Carnegie Mellon (we współpracy z New York Times) uważają, że mogą mieć wyjaśnienie, dlaczego coraz trudniej jest się skupić. Od jakiegoś czasu wiemy, że wielozadaniowość (co naukowcy czasami nazywają „szybkim przełączaniem między zadaniami”) wiąże się z kosztami. Szybkie przełączanie się to nawyk wielu z nas: praca nad szkicem notatki, czytanie i odpowiadanie na e-maile, sprawdzanie naszych mediów społecznościowych; przeskakiwanie z jednego zadania do drugiego iz powrotem, wszystko w ciągu kilku minut. Ta zmiana ma wpływ na funkcje poznawcze. W ciągu dnia pracy wielu z nas ma tylko 11 minut między każdą przerwą, a powrót do pierwotnego zadania po przerwie zajmuje średnio 25 minut. Wyobraź sobie, że piszesz ważny raport do pracy. Na Twoim komputerze program pocztowy prawdopodobnie działa w tle i prawdopodobnie masz telefon komórkowy w pobliżu. Średnio nie minęło więcej niż 11 minut, zanim na komputerze pojawi się powiadomienie e-mail, telefon poinformuje Cię o najświeższych wiadomościach, SMS-ie, a może po faktycznym połączeniu telefonicznym. Ponadto może zapukać do drzwi Twojego biura lub jeśli zdarzy się, że pracujesz w domu, suszarka może bzyczeć, informując, że możesz włożyć kolejny ładunek (który obecnie jest mokry w pralce). Skorzystaj tylko z jednej z tych przerw, a może minąć 25 minut, zanim w pełni skupisz się na swoim raporcie… przez kolejne 11 minut. Podobnie jak w przypadku głębokich rozmów, skoncentrowane rozmowy nie będą się po prostu odbywać. Musimy celowo odciąć się od potencjalnych czynników rozpraszających, nawet na krótki czas.

Lean Customer Development : Jak powinienem przeprowadzać rozmowy kwalifikacyjne?

Najlepszą metodą przeprowadzania wywiadów rozwojowych jest ta, która jest najwygodniejsza dla Ciebie i Twoich docelowych klientów. Każde podejście ma swoje wady i zalety, ale nie mają one znaczenia, czy koordynacja harmonogramów trwa zbyt długo, czy też odkładasz lub zmieniasz terminy rozmów kwalifikacyjnych. Przedstawię kilka metod i wyjaśnię, dlaczego mogą, ale nie muszą, działać w Twoim przypadku.

Odwiedzenie domu lub biura klienta

Intuit dzwoni do domu lub biura klienta „Follow Me Home”; Badacze użytkowników mogą nazywać to rozmową etnograficzną lub wizytą w terenie. Ta metoda jest o dziesięciolecia wcześniejsza niż ruch początkowy Lean. Obserwowanie klienta w jego naturalnym środowisku jest metodą rozwoju klienta z najwyższą wiernością. Dowiesz się o takich czynnikach, jak poziom hałasu, porządek w otoczeniu, czy Twój klient ma prywatność, czy jest stale zakłócany, czy ma przestarzałą lub zaktualizowaną technologię i kto przychodzi z nim porozmawiać, gdy tam jesteś. Jeśli zadasz pytanie, jak klient coś robi, może ci to pokazać, a nie tylko opisać. Rozmowy twarzą w twarz są bardziej osobiste; widzi Twoją twarz i język ciała, co pomaga w budowaniu relacji z tym potencjałem

Earlyevangelist. Możesz również spotkać się z innymi osobami w gospodarstwie domowym lub w miejscu pracy, aby uzyskać dodatkowe pytania. Wywiady na miejscu są zdecydowanie najtrudniejsze do koordynowania. Obawy dotyczące prywatności mogą uniemożliwić pracownikom sprowadzenie osoby z zewnątrz do biura lub przynajmniej wymagać wcześniejszego podpisania umowy o zachowaniu poufności. W przypadku konsumentów bałagan w domu lub rozproszenie uwagi członków rodziny może zniechęcać klienta do wyrażenia zgody na rozmowę. Konieczność wcześniejszego uzyskania pozwolenia lub zgody może również prowadzić do opóźnień lub anulowania rezerwacji w ostatniej chwili. Wywiady na miejscu sprawdzają się dobrze w przypadku:

  • Firmy posiadające istniejące produkty i klientów
  • Problemy, w których rolę odgrywa środowisko fizyczne
  • Problemy, które dotyczą wielu interesariuszy

• Produkty używane w domu

Ile Google wie o Tobie : Google kontra dostawca usług internetowych

Zagrożenie ujawnieniem informacji przez Internet nie dotyczy tylko Google, a nawet wszystkich firm internetowych; obejmuje również dostawców usług internetowych (ISP) i dostawców szkieletowej sieci internetowej, firmy, które zapewniają komunikację między dostawcami na dalekie odległości. Podstawowa różnica między Google a tymi dostawcami sieci polega na tym, że dostawcy sieci przesyłają informacje z Twojego komputera do docelowych witryn internetowych. Google i inne firmy internetowe zapewniają bezpłatne narzędzia i usługi w miejscu docelowym połączenia. Ich narzędzia i usługi zapewniają impuls do ujawniania poufnych informacji. Ta książka zawiera analizę poszczególnych usług typu informacji które ludzie ujawniają. Każde z tych ujawnień jest narażone na podsłuchiwanie przez dostawcę sieci, chyba że istnieje szyfrowanie między przeglądarką a docelową witryną internetową. Kluczowa różnica między dostawcami sieci a Google to jedna z zalet. Google odnotowuje część aktywności około połowy miliarda użytkowników internetu na świecie. Dostawcy usług internetowych mogą zobaczyć całą niezaszyfrowaną aktywność dzięki stosunkowo mniejszej liczbie abonentów. W Stanach Zjednoczonych największy ISP ma 17,9 miliona abonentów, a 12 ISP ma 1 milion lub więcej abonentów (w żadnym wypadku nie jest to malutki, ale o rząd wielkości mniej niż Google). Dwudziestu trzech dostawców usług internetowych kontroluje 75% rynku w USA. Dostawcy usług internetowych mają jedną bardzo ważną informację, która odróżnia ich od firm internetowych. Przypisują adresy sieciowe swoim klientom i przechowują zapisy między podanym adresem IP a rzeczywistym kontem subskrybenta. Co ważniejsze, dostawcy usług internetowych muszą mieć możliwość wystawiania rachunków za dostęp, więc znają nazwisko, adres (w końcu musieli poprowadzić kabel do każdego domu) i ewentualnie numer karty kredytowej każdego klienta. Firmy internetowe mogą zbierać te informacje za pośrednictwem ujawnień online, ale dostawcy usług internetowych wymagają takich informacji przed świadczeniem usługi. Dostawcy sieci szkieletowych dzielą większość zagrożeń związanych z komunikacją za pośrednictwem dostawców usług internetowych, chociaż istnieją pewne istotne różnice. Dostawcom sieci szkieletowej brakuje szczegółowych zapisów rozliczeniowych użytkowników końcowych, a także mapowań adresów IP do kont użytkowników, które posiadają dostawcy usług internetowych, ale mają wgląd w użytkowników z wielu różnych dostawców usług internetowych. O ile użytkownik nie zastosuje jakiegoś środka zaradczego, takiego jak SSL, dostawca usług internetowych ma wgląd w każdą witrynę internetową, którą jego subskrybenci odwiedzają w sieci, oraz całą jej niezaszyfrowaną komunikację. Jeśli chodzi o stopień widoczności, jaki dany dostawca usług internetowych ma nad swoimi abonentami, staje się on niejasny, ponieważ jego abonenci podróżują lub przenoszą się do nowych obszarów i zatrudniają innego dostawcę usług internetowych. Jednak Google i inne firmy internetowe nie cierpią z powodu tego problemu. Jeśli użytkownik ma zarejestrowane konto lub nie usuwa plików cookie, Google może zidentyfikować użytkownika po przeprowadzce do Seattle lub podczas surfowania z hotelu w Japonii na wakacjach. Należy pamiętać, że niektórzy analitycy branżowi uważają, że Google stara się zostać dostawcą usług internetowych ze względu na nieużywaną sieć światłowodową, znaczący udział w aukcji widma bezprzewodowego FCC oraz pilotażowe programy bezprzewodowe w San Francisco i Mountain View w Kalifornii. Google zaprzecza tym plotkom. Połączone usługi Google / ISP połączyłyby ryzyko obu, znacznie zwiększając zagrożenie. Warto porównać różne motywacje i zasoby firm internetowych i dostawców usług sieciowych. Google i jej konkurenci bardzo dbają o informacje dostarczane przez użytkowników, aby zmaksymalizować przychody z reklam i poprawić doświadczenia użytkowników. W końcu misją Google jest uporządkowanie światowych zasobów informacji i uczynienie ich powszechnie dostępnymi i użytecznymi. Firma Google jest zorganizowana wokół tej misji, w tym światowej klasy wiedzy eksperckiej w zakresie eksploracji danych i zasobów przetwarzania informacji opisanych w rozdziale 1, „Wyszukiwanie w Google”. Z drugiej strony, dostawcy usług internetowych i sieci szkieletowej Internetu są w dużej mierze zaniepokojeni, również ze względu na ich model biznesowy, zapewnieniem dostępu do sieci za opłatą. Innym przydatnym porównaniem między dużymi firmami internetowymi a dostawcami usług sieciowych jest zatrzymywanie danych. Pełne, długoterminowe rejestrowanie aktywności online przez dostawcę usług internetowych lub innego dostawcę sieci nie obsługuje bezpośrednio obecnych modeli biznesowych. Jednak podstawowy model biznesowy Google i jego konkurentów opiera się na dostarczaniu bezpłatnych, wysokiej jakości usług dostosowanych do indywidualnych potrzeb, które są wspierane przez reklamy. W tym przypadku eksploracja i retencja danych są naturalnymi rozszerzeniami tego modelu. W rzeczywistości wystarczy przejrzeć ogłoszenia ofert pracy w Google Labs, aby zwrócić uwagę na nacisk. Lepsze zrozumienie każdego użytkownika wspiera ukierunkowaną reklamę, a tym samym zwiększa skuteczność reklamy i przychody. Rejestrowanie interakcji zamiast całej aktywności online jest znacznie bardziej wydajne i dostępne dzięki obecnym technologiom przechowywania i przetwarzania. Obecnie dostawcy usług sieciowych nie mają takiej samej motywacji i możliwości do przeszukiwania danych dotyczących działań swoich klientów, jak Google. W przyszłości może się to zmienić. W dzisiejszym środowisku większość użytkowników sieci oczekuje, że dostawcy usług sieciowych nie zmienią swojej komunikacji przychodzącej ani wychodzącej. Jednak zwykłe zapewnienie komunikacji sieciowej staje się coraz bardziej konkurencyjne, zmniejszając marże dostawców usług sieciowych. Niektórzy dostawcy eksperymentują ze modyfikowaniem komunikacji przechodzącej przez ich sieci i wstawianiem reklam. Badacz bezpieczeństwa Dan Kaminsky nazywa to działanie efektem Times Square. (Gdy na filmach wyświetlany jest nowojorski Times Square, doskonale oświetlone szyldy reklamowe są często zastępowane znakami innych reklam). Ze względu na potencjalną opłacalność tej praktyki należy być przygotowanym na przyszłe zagrożenia dla integralności komunikacji online. Niezależnie od tego, czy postrzegasz dostawcę sieci lub firmę internetową jako potencjalne zagrożenie (lub jedno i drugie), pamiętaj, że informacje, które ujawniasz celowo i nieumyślnie, stwarza ryzyko. Jeśli wyobrażasz sobie połączenie dostępu swojego dostawcy usług sieciowych i firm internetowych, powinieneś zobaczyć, że ujawniasz większość swoich interakcji online ze stroną trzecią. Efektem końcowym jest mrożąca krew w żyłach kombinacja.

Zaufanie w Cyberspace : Uzyskaj zaufanie

Zaufanie dostępu to zaufanie, które strona umieszcza w drugiej stronie, gdy druga strona uzyskuje dostęp do usług i zasobów zapewnianych przez pierwszą stronę. Kontrola dostępu i zasady dostępu były tradycyjnie wykorzystywane do realizacji tego zaufania. Jednak w scenariuszu przetwarzania w chmurze utrzymanie zaufania do dostępu staje się znacznie trudniejsze ze względu na obecność wielu stron, z których każda ma odmienne cele. Song demonstruje ten problem. W artykule omówiono relacje między stronami zaangażowanymi w aplikację chmurową. Stronami tymi są dostawca oprogramowania, dostawca danych, koordynator i dostawca zasobów. Oprogramowanie i dostawca danych przesyłają swoje oprogramowanie lub dane do zasobów udostępnionych przez dostawcę zasobów. Koordynator ułatwia wykrywanie usług, a dostawca zasobów zapewnia platformę do wykonywania oprogramowania na danych. Problem zaufania w architekturze pojawia się, gdy dostawca danych używa oprogramowania od dostawcy oprogramowania lub osoba trzecia chce korzystać z oprogramowania i danych. W takich przypadkach musi istnieć gwarancja, że ​​używane oprogramowanie nie jest złośliwe i robi tylko to, co mówi (tj. W przypadku prywatnego zbioru danych oprogramowanie nie tworzy kopii danych znajdujących się za sceną). Problem z zaufaniem pojawia się również, gdy oprogramowanie jest dostarczane dostawcom danych, że nie tworzą oni nieautoryzowanych kopii oprogramowania. W artykule zaproponowano rozwiązanie oparte na logowaniu i izolacji. Dane od dostawcy danych i aplikacje, które mogą pracować na tych danych od dostawcy oprogramowania, są zaszyfrowane, a dostęp do kluczy uruchamia mechanizm logowania. Koordynator wykorzystuje mechanizm wykrywania usług do znajdowania odpowiedniego oprogramowania dla zbioru danych i odwrotnie. Dostawca zasobów zapewnia izolowane środowisko do działania aplikacji. Dostawca oprogramowania i dostawca danych nie znają swojej tożsamości i wiedzą tylko, że wykonanie jest wykonywane za pomocą identyfikatora odniesienia wykonania. Ten model, chociaż pomaga w rozliczalności i anonimowym wykonaniu, nie daje żadnej gwarancji, że oprogramowanie nie utworzy kopii danych. Jednak aby mieć pewność, że kopia oprogramowania będzie używana tylko w odniesieniu do zbioru danych, dla którego została przeznaczona i nie będzie kopiowana bez upoważnienia, autorzy proponują powiązanie zaufania oprogramowania i danych. Odbywa się to przez dostawcę zasobów przy użyciu modułu zaufanej platformy (TPM). Ponieważ dane są zaszyfrowane za pomocą klucza, każde konkretne wystąpienie oprogramowania jest modyfikowane tak, aby działało tylko z określonym kluczem. W związku z tym każda instancja będzie musiała zostać zmodyfikowana pod kątem nowego zestawu danych, a nieautoryzowana modyfikacja nie byłaby dozwolona przez moduł TPM. Sundareswaran proponuje zdecentralizowane ramy odpowiedzialności za informacje, aby śledzić faktyczne wykorzystanie danych użytkowników w chmurze. W artykule przedstawiono sposób traktowania zaufania dostępu do chmur, wykorzystując programowalne możliwości plików Java JAR w celu dołączenia mechanizmów rejestrowania do danych i zasad użytkowników. Aby poprawić kontrolę użytkownika nad danymi, zapewniają mechanizmy kontroli rozproszonej. W scenariuszu przetwarzania w chmurze, ponieważ dane przechodzą przez zasoby (sprzęt i oprogramowanie) należące do różnych podmiotów, konwencjonalne przetwarzanie danych nie może zagwarantować odpowiedzialności i prywatności danych. Autorzy proponują odpowiedzialność za informacje w chmurze (CIA), aby rozwiązać te problemy. CIA ma dwa główne komponenty, rejestrator i harmonizator dziennika. Główne zadania rejestratora obejmują automatyczne rejestrowanie dostępu do zawartych w nim elementów danych, szyfrowanie zapisów dziennika i okresowe wysyłanie ich do harmonizatora dziennika. Za audyt odpowiedzialny jest harmonizator dziennika. Architektura ma dwa pliki JAR; zewnętrzny JAR i wewnętrzny JAR. Zewnętrzny plik JAR zawiera zasady dostępu, a wewnętrzny plik JAR zawiera zaszyfrowane rzeczywiste dane w kilku plikach JAR. Zasady dostępu określają dostęp do wewnętrznych plików JAR za pomocą metod takich jak czas dostępu i dostęp oparty na lokalizacji. Mechanizm ten może przetrwać różne ataki, takie jak atak kopiujący, w którym osoba atakująca kopiuje pliki JAR, atak polegający na dezasemblacji, podczas którego plik JAR ma zostać zdemontowany, atak typu man in the middle oraz atak na skompromitowaną wirtualną maszynę Java (JVM). Przyjrzyj się odpowiedzialności w chmurze z innej perspektywy. W artykule omówiono kluczowe kwestie i wyzwania związane z uzyskaniem zaufanej chmury przy użyciu mechanizmów kontroli detektywistycznej oraz przedstawiono strukturę TrustCloud do radzenia sobie z zaufaniem do dostępu. W artykule omówiono wyzwania związane z wirtualizacją, rejestrowaniem z perspektywy systemów operacyjnych w porównaniu z rejestrowaniem z perspektywy systemów skoncentrowanych na plikach, skalą, zakresem i wielkością rejestrowania oraz pochodzeniem danych. Ich struktura TrustCloud ma różne warstwy abstrakcji; warstwa systemu, która zajmuje się systemami operacyjnymi, systemami plików i wewnętrzną siecią chmury; warstwa danych, która wspiera abstrakcję danych i ułatwia centralne rejestrowanie danych poprzez rejestrator pochodzenia i rejestrator spójności; warstwa przepływu pracy, która koncentruje się na ścieżkach audytu i danych związanych z audytem znajdujących się w usłudze oprogramowania w chmurze. W ramach istnieje warstwa polityki, prawa i regulacji, która obejmuje wszystkie trzy warstwy. Sposób przechowywania danych, kto uzyskuje do nich dostęp, gdzie dane są przechowywane, jest objęty tymi zasadami. Podsumowując, niniejszy artykuł dobrze poradził sobie ze wszystkimi kwestiami, które dotychczas nie były poruszane w literaturze dotyczącej chmury obliczeniowej

Ciemna Strona Neta : Dyktatorzy i ich dylematy

Chociaż staje się jasne, że niewiele autorytarnych reżimów jest zainteresowanych całkowitym zamknięciem wszelkiej komunikacji, choćby dlatego, że chcą być na bieżąco z pojawiającymi się zagrożeniami, cenzura przynajmniej niektórych treści jest nieunikniona. Przez ostatnie trzy dekady konwencjonalna mądrość sugerowała, że ​​potrzeba cenzury postawiła autorytarne reżimy w kąt: albo cenzurowali, a tym samym ponieśli konsekwencje gospodarcze, ponieważ cenzura jest nie do pogodzenia z globalizacją, albo nie cenzurowali i tym samym ryzykowali rewolucję. Hillary Clinton powiedziała to samo w swoim przemówieniu dotyczącym wolności w Internecie: „Kraje, które cenzurują wiadomości i informacje, muszą uznać, że z ekonomicznego punktu widzenia nie ma różnicy między cenzurowaniem wypowiedzi politycznych i komercyjnych. Jeśli firmom w waszych krajach odmawia się dostępu do któregokolwiek rodzaju informacji, będzie to nieuchronnie wpływać na wzrost ”. Donosząc o roli technologii w napędzaniu irańskiej rewolucji na Twitterze, New York Times wyraził podobną opinię: „Ponieważ technologie cyfrowe są dziś tak krytyczne dla współczesnych gospodarek, represyjne rządy zapłaciłyby wysoką cenę za ich całkowite odcięcie się od nich. możliwy.” Ten binarny pogląd – że dyktatorzy nie mogą globalizować się, dopóki nie otworzą swoich sieci dla hord międzynarodowych konsultantów i bankierów inwestycyjnych przeszukujących ich ziemie w poszukiwaniu kolejnego celu przejęcia – stał się znany jako „dylemat dyktatora” i znalazł wielu zwolenników wśród decydentów, zwłaszcza gdy te ostatnie omawiają dobroczynną rolę Internetu. Jednak istnienie bezpośredniego związku między wzrostem gospodarczym a współczesną cenzurą Internetu nie jest oczywiste. Czy może to być kolejne słabo zbadane i raczej szkodliwe założenie wynikające z zimnej wojny? W 1985 r. George Schultz, ówczesny sekretarz stanu USA, był jednym z pierwszych, którzy wyrazili powszechny pogląd, mówiąc, że „społeczeństwa totalitarne stoją przed dylematem: albo próbują zdusić te technologie, a tym samym pozostają w tyle w nowej rewolucji przemysłowej albo też zezwalają na te technologie i widzą nieuchronną erozję ich totalitarnej kontroli ”. A te rządy były skazane, według Schultza: „Nie mają wyboru, ponieważ nigdy nie będą w stanie całkowicie zablokować fali postępu technologicznego”. Pogląd Schultza, wyrażony w głośnym artykule w „Foreign Affairs”, zyskał wielu zwolenników. Artykuł redakcyjny z 1989 r. W Nowej Republice, zaledwie tydzień po tym, jak chiński rząd usunął protestujących z placu Tiananmen, argumentował, że wybór, przed którym stanęli dyktatorzy, polegał albo na tym, by „pozwolić ludziom myśleć samodzielnie i mówić, co myślą. . . —Lub poczuj swoją zgniliznę ekonomiczną. ” To była muzyka dla uszu wielu wschodnich Europejczyków w tamtych czasach, a następujący po tym upadek systemu radzieckiego zdawał się potwierdzać determinizm Nowej Republiki. W rzeczywistości takie prognozy były intelektualnym wytworem optymizmu tamtej epoki. Każdy, kto podążał za duchem czasu późnych lat osiemdziesiątych i wczesnych dziewięćdziesiątych, nie mógł przeoczyć połączenia między dwiema popularnymi w tamtym czasie teoriami, jedną dotyczącą technologii i jedną dotyczącą polityki, które w dość tajemniczy sposób nosiły praktycznie tę samą nazwę. Jedna z teorii, rozwinięta przez futurystę Alvina Tofflera, zakładała, że ​​gwałtowne zmiany technologiczne tamtego okresu doprowadzą do powstania „społeczeństwa trzeciej fali”, naznaczonego zdemokratyzowanym dostępem do wiedzy i początkiem ery informacji. Dla Tofflera technologia informacyjna nastąpiła po dwóch innych rewolucyjnych falach, rolnictwie i industrializacji, rozpoczynając zupełnie nowy okres w historii ludzkości. Druga teoria, opracowana przez politologa z Harvardu Samuela Huntingtona, zakładała, że ​​okres naznaczony był pojawieniem się „trzeciej fali” światowej demokratyzacji, w której coraz więcej krajów wybiera demokratyczne formy rządów. (Była „trzecia”, ponieważ według Huntingtona następowała po pierwszej fali, która trwała od początku XIX wieku do powstania faszyzmu we Włoszech, oraz drugiej, która trwała od zakończenia drugiej wojny światowej do połowy -1960s.) Byłoby zbyt kuszące, aby nie widzieć tych dwóch trzecich fal jako zbieżnych w którymś momencie najnowszej historii, a rok 1989 wyglądał na najlepszego kandydata. Takie poglądy często wskazywały na istnienie silnej przyczynowości między marszem demokracji na całym świecie a początkiem rewolucji informacyjnej, związku, który często był wywnioskowany, ale rzadko wykazywany. „Dylemat dyktatora” stał się użytecznym pseudonimem, sposobem na uchwycenie nieuchronności autorytarnego upadku w obliczu faksów, kserokopiarek i tak dalej. Idąc śladem George’a Schultza, w latach 1990-2010 wielu wysokich rangą urzędników rządowych USA, w tym James Baker, Madeleine Albright i Robert Gates, mówiło o „dylemacie dyktatora”, jakby to był zdrowy rozsądek. Jednak to zdeklarowany ekonomista Uniwersytetu Columbia, Jagdish Bhagwati, który najbardziej wymownie uchwycił istotę „dylematu dyktatora”: „Komputer osobisty jest niekompatybilny z CP. [Partii komunistycznej].” Jako niezależny intelektualista Bhagwati może oczywiście wierzyć we wszystko, co chce, bez zwracania uwagi na rozwój sytuacji w prawdziwym świecie, ale przywódcy polityczni nie mają tego luksusu, choćby dlatego, że stawką jest skuteczność przyszłej polityki. . Niebezpieczeństwo ulegania logice „dylematu dyktatora”, a także innym podobnym przekonaniom o nieuchronnym triumfie kapitalizmu lub końcu historii polega na tym, że nasyca przywódców politycznych niebezpiecznym poczuciem historycznej nieuchronności i zachęca do tworzenie polityki. Jeśli państwa autorytarne stoją przed tak poważnym, a nawet śmiertelnym dylematem, po co ryzykować przechylenie szali bezmyślnymi interwencjami? Taki nieuzasadniony optymizm nieuchronnie prowadzi do bezczynności i paraliżu. Thomas Friedman, publicysta New York Times ds. Zagranicznych, w typowy dla siebie sposób, trywializował – i zrobił wiele, by spopularyzować – błąd „dylematu dyktatora”, wymyślając nowe modne hasło: „Zespół niedoboru odporności mikroczipa” (MIDS). MIDS jest „chorobą, która może dotknąć każdy nadęty, otyły, sklerotyczny system w erze postzimnowojennej. Umowa z MIDS jest zwykle zawierana przez kraje i firmy, które nie potrafią się zaszczepić przed zmianami wprowadzanymi przez mikroczip i demokratyzacją technologii, finansów i informacji ”. Dzięki internetowi autorytarne rządy są skazane na zagładę: „W ciągu kilku lat każdy obywatel świata będzie mógł porównywać swoje własne. . . rząd i ten obok ”. (Jednak z jakiegoś powodu Amerykanie, przy całym swoim nieskrępowanym dostępie do Internetu, nie chwalą rad Friedmana, nie robiąc wielu rządów na własną rękę i widzą, że inne rządy mają znacznie bardziej rozsądne podejście, na przykład do więzienia ich obywateli). Nicholas Kristof, bardziej trzeźwy kolega Friedmana z New York Timesa, również jest głęboko przekonany o nieuchronności informowania autorytarny upadek, pisząc, że „dając Chińczykom dostęp szerokopasmowy”, chińscy przywódcy „kopią komunistycznej Partii grób”. Dlatego nadal często zakłada się, że Internet ostatecznie rozerwie autorytaryzm na strzępy, zadając mu tysiące śmiercionośnych ciosów informacyjnych. Twardzi liderzy nie mogą przetrwać bez technologii informacyjnej, ale rozpadną się, nawet jeśli ją wpuszczą, ponieważ ich obywatele desperacko szukający Disneylandu, Big Maców i MTV wybiegną na ulice, domagając się uczciwych wyborów. Problem z tym poglądem polega na tym, że jeśli chodzi o ocenę dowodów empirycznych i rozważenie przypadku Internetu, trudno wyobrazić sobie państwo, które w rzeczywistości nie przetrwało wyzwań stawianych przez dylemat. Z wyjątkiem Korei Północnej, wszystkie państwa autorytarne zaakceptowały Internet, a Chiny mają więcej użytkowników Internetu niż ludzi w Stanach Zjednoczonych. Tam, gdzie eksperci i decydenci zawiedli, jest zrozumienie wyrafinowania i elastyczności aparatu cenzurującego zbudowanego w oparciu o Internet. Jednym z kluczowych założeń stojących za „dylematem dyktatora” było to, że niemożliwe byłoby zaprojektowanie precyzyjnych mechanizmów cenzury, które mogłyby blokować otwarcie polityczną aktywność w Internecie, a jednocześnie zezwalać na jakąkolwiek działalność internetową – być może nawet ją przyspieszać – która pomogłaby w pobudzeniu wzrostu gospodarczego. To założenie okazało się fałszywe: rządy opanowały sztukę filtrowania opartego na słowach kluczowych, uzyskując w ten sposób możliwość blokowania witryn internetowych na podstawie adresów URL, a nawet tekstu ich stron. Następnym logicznym etapem byłoby opracowanie przez rządy sposobów ograniczania dostępu do treści w oparciu o konkretne dane demograficzne i określone zachowania użytkowników, ustalenie, kto dokładnie próbuje uzyskać dostęp do czego, z jakiego możliwego powodu, do czego jeszcze uzyskali dostęp w poprzednich dwóch tygodni i tak dalej przed podjęciem decyzji o zablokowaniu lub zezwoleniu na dostęp do danej strony. W niedalekiej przyszłości bankier przeglądający tylko Reutera i Financial Times oraz inni bankierzy jako jej internetowi przyjaciele zostaliby sami i mogliby robić, co tylko zechce, nawet przeglądać strony Wikipedii o łamaniu praw człowieka. Z drugiej strony osoba o nieznanym zawodzie, która od czasu do czasu czyta Financial Times, ale jest również połączona z pięcioma znanymi działaczami politycznymi za pośrednictwem Facebooka i która pisze komentarze na blogu zawierające takie słowa jak „demokracja” i „wolność”, byłaby ma prawo odwiedzać strony internetowe prowadzone przez rząd (lub, jeśli jest ważnym celem wywiadowczym, będzie mogła odwiedzać inne witryny, a jej działania online będą ściśle monitorowane).

Audyt Umysłu Hackera : Model ujawniania informacji o „wartości dodanej” firmy zabezpieczającej

Rosnąca liczba firm zajmujących się bezpieczeństwem informacji, już dobrze znanych ze swoich porad dotyczących ujawniania informacji do domeny publicznej, zaczęło oferować „wartość dodaną” ostrzegania o lukach w zabezpieczeniach i usługi doradcze. opłacone przez dostawcę takich usług, a ujawnienie luki w zabezpieczeniach następuje w formie ostrzeżenia lub pełnego doradztwa dla zamkniętej grupy „klientów” prywatnych i / lub publicznych, którzy uiszczają opłatę za usługę w oparciu o abonament. Czas, w którym dany sprzedawca lub usługodawca zostanie powiadomiony o problemie, będzie różny, w zależności od polityki dostawcy usług doradczych. Jednak często ma to miejsce po wysłaniu wstępnego ostrzeżenia do płacących klientów.

Niektóre firmy zajmujące się bezpieczeństwem będą również korzystać z takich usług alarmowych, aby zwiększyć sprzedaż profesjonalnych usług dla klientów, którzy są zaniepokojeni ujawnioną luką i chcą zmniejszyć ryzyko jej wykorzystania. Normą jest, że po ujawnieniu informacji klientom płacącym – i warunkowo sprzedawcy – luka zostanie ujawniona pozostałej części społeczności zajmującej się bezpieczeństwem, a ostatecznie ogółowi społeczeństwa. Ponownie, charakter ujawniania informacji klientom płacącym i społeczności zajmującej się bezpieczeństwem będzie różny w zależności od polityki firmy ochroniarskiej dostarczającej serwery; wydaje się jednak, że większość przyjmuje model pełnego ujawnienia. Chociaż w dalszej części tego rozdziału zajmiemy się semantyką kwestii przedpublicznego ujawnienia, model ujawniania wartości dodanej stwarza możliwość zaistnienia kilku scenariuszy – unikalnych dla tego modelu ujawniania. Ryzyko wrogich insiderów w dużych organizacjach jest bardzo realne. Jednym z możliwych scenariuszy spowodowanych przez model ujawniania wartości dodanej jest brak kontroli dostawcy usługi wartości dodanej nad ujawnionym poradnikiem (i często wykorzystującym kod) po ujawnieniu luki u jego płatnej bazy klientów.

Agile Leadership : GŁĘBOKIE ROZMOWY

Jak myślisz, ile rozmów odbyłeś w tym tygodniu w ciągu ostatnich siedmiu dni? Mogą to być rozmowy ze współmałżonkiem lub partnerem, dziećmi lub innymi członkami rodziny. Obejmuje to również rozmowy związane z pracą – rozmowy z szefem, osobami, które nadzorujesz, z rówieśnikami, partnerami, klientami lub kimkolwiek innym, kogo spotykasz w pracy. Nie zapominaj o wszystkich innych rozmowach, które prowadzisz, na przykład z osobą dzwoniącą po zakupy lub z sąsiadem, którego spotykasz podczas spaceru z psem. Co to jest „głęboka rozmowa”? Chociaż istnieje kilka definicji, użyjmy standardu Roosevelta, aby zdefiniować „głębokie”. Eleanor Roosevelt była amerykańską polityką, dyplomatą i aktywistką. Służyła jako pierwsza dama Stanów Zjednoczonych dłużej niż jakikolwiek inny małżonek prezydenta, od 1933 do 1945 roku, kiedy jej mąż (Franklin D. Roosevelt) był w Białym Domu. Wśród wielu cytowanych przez nią komentarzy jest następujący: Wielkie umysły omawiają pomysły; przeciętne umysły omawiają wydarzenia; małe umysły dyskutują o ludziach. Użyjemy tego jako przewodnika po tym, jak płytkie lub głębokie są nasze rozmowy. Najprawdopodobniej nasze najbardziej płytkie rozmowy będą dotyczyć ludzi, pogłębiając się podczas omawiania wydarzeń, a najgłębsze, gdy omawiamy ze sobą pomysły. Biorąc to za standard, na czym stoisz? Ile rozmów w ciągu tygodnia było dyskusjami o pomysłach? Oczywiście nie każda rozmowa musi być głęboka. Wiele z codziennych zadań w biznesie i życiu można wykonać za pomocą rozmów, które przebiegają właściwie po powierzchni. Dyskusja na temat tego, co zjeść na obiad danego wieczoru, nie zawsze musi prowadzić do pomysłów zawartych w naszej pizzy na wynos. Istnieją jednak dowody na to, że jesteśmy zaprogramowani, aby potrzebować, a nawet rozwijać się, na pewnej ilości głębokich, merytorycznych rozmów. W badaniu przeprowadzonym przez University of Arizona naukowcy odkryli, że jest wyższy wskaźnik dobrostanu wiązały się ze spędzaniem mniej czasu w samotności, a więcej z rozmową z innymi. To odkrycie potwierdziło to, co stwierdzono w kilku innych badaniach. Ponadto jednak odkryli również, że wyższe wskaźniki dobrostanu były istotnie związane z uczestnictwem w mniej rozmowach typu small talk i bardziej głębokich, merytorycznych. Kiedy porównali najnieszczęśliwszych.

Uczestnicy badania byli najszczęśliwsi, stwierdzili, że szczęśliwa gromadka przeprowadziła mniej więcej jedną trzecią rozmów towarzyskich i dwa razy więcej głębokich, merytorycznych rozmów. Badanie nie próbowało wyjaśnić związku przyczynowego za tym odkryciem, ale wskazało na możliwość, że szczęście i dobre samopoczucie można zwiększyć, wydłużając czas spędzony na głębokich, merytorycznych rozmowach. Łącząc ten pomysł z naszym standardem Roosevelta, im częściej omawiamy pomysły z innymi, tym szczęśliwsi i bardziej zadowoleni będziemy prawdopodobnie.

Lean Customer Development : Korzystanie ze strony docelowej

Stworzenie strony docelowej i wykorzystanie Google AdWords do kierowania na nią ruchu było pierwotną taktyką rozwoju klienta. Pisał o tym Eric Ries i wiele firm (w tym KISSmetrics) stosowało tę metodę. Jednak ponieważ coraz więcej firm zaczęło korzystać z AdWords, cena za kliknięcie znacznie wzrosła. Koszt pozyskania użytkowników za pośrednictwem AdWords może być zbyt wysoki, chyba że znajdujesz się w wąskiej niszy. Jeśli jednak masz dużą liczbę obserwujących na Twitterze, popularnego bloga lub bazę istniejących klientów, możesz uzyskać rozsądny ruch w witrynie. Możesz go zbudować samodzielnie lub skorzystać z usługi hostowanej, takiej jak LaunchRock (http://www.launchrock.com), która pomaga również promować witrynę za pośrednictwem Twittera. Zaletą korzystania ze strony docelowej jest to, że można łatwo połączyć krótką ankietę z możliwością śledzenia i kontaktowania się z innymi osobami w celu przeprowadzenia dłuższego wywiad

Ile Google wie o Tobie : Przepływ i wycieki informacji w Internecie

Twój komputer dociera do witryn internetowych, takich jak Google, za pośrednictwem łączy między urządzeniami sieciowymi – zwykle routerami – które są wystarczająco inteligentne, aby kierować wiadomości do właściwego docelowego serwera internetowego. Komunikacja rozpoczyna się od połączenia z komputera do pierwszego takiego urządzenia w łańcuchu, a następnie przechodzi przez 10 do 20 kolejnych takich urządzeń i ostatecznie dociera do właściwego serwera internetowego

Jak pokazano w poprzedniej sekcji, informacje mogą przepływać z poszczególnych komputerów na wiele nieoczekiwanych sposobów. To samo dotyczy tego łańcucha urządzeń sieciowych. Na rysunku przerywana linia poszerza omawianą wcześniej ideę „kredowego koła” na całą ścieżkę komunikacyjną. Każdy, kto ma dostęp do któregokolwiek z tych urządzeń, może próbować podsłuchiwać, zmieniać, przekierowywać, spowalniać lub blokować Twoją komunikację. Niezależnie od tego, czy przeglądasz Internet, czytasz pocztę, komunikujesz się za pomocą komunikatorów czy korzystasz z mapowania online, Twoje żądania i odpowiedzi muszą przechodzić przez sieć i wszystkie są potencjalnie podatne na ataki. Wiele z tych usług jest „jawnych” – oznacza to, że żadne szyfrowanie nie jest używane do ochrony przed podsłuchem. Na przykład, używając narzędzia do monitorowania sieci, takiego jak Wireshark, w celu wykrycia któregokolwiek z łączy, możesz łatwo zobaczyć taką aktywność. Następujące żądanie HTTP zostało utworzone, gdy szukałem w Google „nadzoru” i przechwyciłem je za pomocą Wireshark, tak jak mógł to zrobić podsłuchiwacz. Zwróć uwagę, że wyszukiwane hasło (pogrubione) jest wyraźnie widoczne w ładunku

Nawet jeśli chronisz swoją komunikację za pomocą niezniszczalnego szyfrowania w Internecie, nadal jest ona narażona w niezaszyfrowanej formie na każdym z punktów końcowych. Na przykład Secure Sockets Layer (SSL) jest najpowszechniej stosowanym mechanizmem kryptograficznym wszechczasów [65] i jest używany do zabezpieczania komunikacji z przeglądarki internetowej do docelowego serwera WWW. Większość firm internetowych używa SSL do ochrony poufnych wiadomości przed podsłuchem, na przykład podczas bankowości lub wprowadzania numeru karty kredytowej. Twoja przeglądarka informuje Cię, że protokół SSL jest używany, wyświetlając małą ikonę kłódki w przeglądarce. Google używa SSL, kiedy logujesz się na swoje konto Google lub czytasz Gmaila. Po zalogowaniu Gmail domyślnie nie używa SSL, ale można go tak skonfigurować. „Domyślnie” to fraza kluczowa; ponieważ większość użytkowników nigdy nie zmieni konfiguracji swojego konta, są narażeni na podsłuchiwanie i być może utracą kontrolę nad swoim kontem. Niestety, wiele usług Google nie oferuje opcji SSL. Na przykład, jeśli spróbujesz uzyskać dostęp do Google za pomocą protokołu SSL, https://www.google.com/, nastąpi automatyczne przekierowanie na niezabezpieczone http://www.google.com/. Nie winię za to Google. Faktem jest, że kryptografia wymaga znacznie większej mocy obliczeniowej niż niezaszyfrowane odpowiedniki. Gdyby wszystkie usługi Google były chronione za pomocą kryptografii, albo czas reakcji byłby znacznie krótszy, albo Google musiałby ponieść niezwykle wysokie koszty modernizacji infrastruktury przetwarzania. Aby sprawdzić, ile urządzeń sieciowych, głównie routerów (urządzeń, które określają prawidłową trasę przez Internet do komunikacji), używasz podczas uzyskiwania dostępu do Google, wypróbuj polecenie tracert systemu Windows lub polecenie traceroute systemu UNIX.

 c: \ tracert www.google.com

Śledzenie trasy do www.l.google.com [64.233.169.104] przez maksymalnie 30 przeskoków:

Na tym przykładzie widać, że przejście z mojego komputera na www.google.com zajęło 15 przeskoków. Uzyskasz różne wyniki, jeśli spróbujesz z komputera, ale powinieneś zauważyć, że potrzeba od 10 do 20 przeskoków, aby dostać się do serwerów większości firm internetowych. Każde z urządzeń na tej ścieżce lub wzdłuż każdego łącza można skonfigurować do podsłuchiwania Cię, zarówno legalnie, jak i nielegalnie. Podsłuch prawny to temat kontrowersyjny i wart studiowania. Na dobry początek warto zapoznać się z ustawą o pomocy w komunikacji dla organów ścigania (CALEA) i kontrargumentami w Electronic Frontier Foundation i Electronic Privacy Information Centre. Nawet jeśli Google używał SSL (lub innej formy kryptografii) do każdej pojedynczej transakcji, SSL nie zapewnia żadnej ochrony na punktach końcowych, ponieważ zarówno Ty, jak i Google jesteście zaufanymi partnerami w komunikacji. SSL został zaprojektowany, aby chronić Twoją komunikację przed podsłuchem, ale nie robi nic, aby chronić Cię przed sobą. Jeśli więc Twój komputer jest zainfekowany złośliwym oprogramowaniem lub Google jest zagrożony albo sam był złośliwy, Twoje dane osobowe są narażone na ataki. Widzimy tutaj, że istnieje różnica między tym, co jest widoczne dla podsłuchującego sieć w Internecie, a tym, co jest widoczne dla Google. Nie pokazano na rysunku, ale warto zwrócić uwagę na protokół rozpoznawania adresów (ARP) i system nazw domen (DNS). ARP jest powszechnym protokołem, który występuje bez wiedzy większości użytkowników i rozgłasza żądania dotyczące niskopoziomowej kontroli dostępu do mediów (MAC) hosta, gdy wszystko, co jest znane, to adres IP. Żądania ARP występują tylko w zlokalizowanych częściach sieci. Następny krok, DNS, komunikuje się szerzej. DNS to usługa obejmująca cały internet, która odwzorowuje nazwy domen, takie jak www.google.com, z którymi ludzie wolą mieć do czynienia, na adresy IP, takie jak 64.233.169.104, których protokół internetowy wymaga do dostarczania pakietów. Gdy lokalne serwery DNS nie mają w pamięci podręcznej kopii mapowania danej domeny na adres IP, muszą rekurencyjnie wyszukiwać poprawny adres w łańcuchu serwerów DNS innych firm. Chociaż niekoniecznie jest to ogromny wyciek informacji, zaufanie do serwerów firm trzecich stanowi jednak poważne zagrożenie. Jeśli osoba atakująca złamie zabezpieczenia systemu DNS, użytkownicy mogą zostać po cichu przekierowani do innych witryn, które mogą podszywać się pod legalną witrynę lub zawierać złośliwą zawartość. Doskonałym przykładem potęgi DNS jest kontrowersja Site Finder wywołana, gdy VeriSign, operator domen najwyższego poziomu .com i .net, przekierował cały ruch do niezarejestrowanych domen do witryny Verisign wypełnionej reklamami. Innymi słowy, zamiast otrzymywać tradycyjny komunikat o błędzie, gdy użytkownik błędnie wpisał adres URL, został skierowany do witryny VeriSign, wywołując burzę kontrowersji. Firma VeriSign skorzystała na zawyżonej liczbie odsłon swoich reklam. Jest to doskonały przykład firmy wykorzystującej moc, jaką oferuje jej punkt obserwacyjny w sieci, do wymuszania „usługi” w Internecie, której wielu ludzi nie chciało. Innym ważnym ryzykiem związanym z DNS jest zależność od 13 serwerów głównych, które odpowiadają na żądania nazw domen w Internecie i przekierowują je. Ze względu na ryzyko główne serwery DNS są silnie chronione, ale muszą wytrzymywać niemal ciągłe ataki. Możliwe są bardziej zlokalizowane formy ataku. DNS Cache Poisoning to atak wykorzystujący lukę w oprogramowaniu DNS i umożliwiający atakującemu przekierowanie internautów do wybranych przez siebie domen. Państwa narodowe zostały również oskarżone o manipulowanie DNS dla własnej korzyści.

Zaufanie w Cyberspace : Rodzaje zaufania w przetwarzaniu w chmurze

Jak wspomniano wcześniej, zaufanie może oznaczać różne rzeczy dla różnych ludzi i podmiotów, co utrudnia zdefiniowanie jednego spojrzenia na zaufanie. W przypadku przetwarzania w chmurze trudność ta jest potęgowana przez ogrom, niejednorodność i różnorodność stosowanych technologii. Aby ułatwić zrozumienie różnych technik zarządzania zaufaniem, które istnieją w literaturze dotyczącej przetwarzania w chmurze, kategoryzujemy je według rodzaju zaufania, z jakim mają do czynienia. Klasyfikacja różnych rodzajów zaufania została podana przez Grandisona i Slomana, a udoskonalona przez JØsanga. W tej sekcji omówimy najbardziej istotne w scenariuszu. Ponieważ zarządzanie zaufaniem w przetwarzaniu w chmurze jest stosunkowo nowym obszarem badań, wraz z dokumentami traktującymi o pewnych formach zaufania i zarządzania zaufaniem, szczególnie w przypadku przetwarzania w chmurze, rozważamy również powiązane prace dotyczące zarządzania zaufaniem w kluczowych technologiach wspomagających podobnych do chmury zorientowanych na usługi architektura (SOA) i usługi internetowe. Należy zauważyć, że przegląd artykułów tutaj nie jest wyczerpujący, ale reprezentatywny; wybraliśmy artykuły, które reprezentują każdą kategorię i przedstawiliśmy krótkie podsumowania dla lepszego zrozumienia klasyfikacji