Lean Customer Development: Planowanie rozmów twarzą w twarz

Najlepsze lokalizacje do rozmów twarzą w twarz są wygodne zarówno dla samochodów, jak i transportu publicznego, mają dużo miejsca i nie cieszą się tak dużą popularnością, że nie można znaleźć stolika lub cichej okolicy. Zazwyczaj proponuję spotkanie w Starbucks; są przyzwyczajeni do spotkań w pracy, a ich Wi-Fi jest niezawodne. Dobrym rozwiązaniem są także hotele z dużymi, cichymi lobby. Oto przykład:

Dziękujemy za zapisanie się na listę wersji beta KISSmetrics. Bardzo chciałbym dostać pół godziny twojego czasu na rozmowę przy kawie. Czy któraś z tych sugestii Ci odpowiada?

9:30 we wtorek, 10 maja w Greenhouse Cafe w West Portal, 15:00 w czwartek, 12 maja w Farley’s Coffeehouse w Potrero Hill 11:30 w piątek, 13 maja w Starbucks w pobliżu Metreon Jeśli żadna z tych rzeczy nie zadziała, możesz zasugerować inną porę – mogę to zrobić w dowolnym miejscu w San Francisco między 9 rano -16:00

Dzięki!

Cindy

Dzięki temu odbiorca otrzyma wszystkie informacje niezbędne do podjęcia decyzji: przewidywany nakład czasu, godziny, które może sprawdzić w swoim kalendarzu, informacje o miejscu * i lokalizacjach (więc nie planuje spotkań tylnych przeciwległe krańce miasta). Istnieje prawdopodobieństwo, że wysłanie wiadomości z kilkoma opcjami wyeliminuje konieczność odtwarzania znaczników e-mail w celu zaplanowania spotkania. Ale nawet jeśli rozmówca nie może zaakceptować jednej z twoich sugestii, ustawiłeś pewne parametry, aby mogła łatwo zaproponować alternatywę, która prawdopodobnie zadziała. Po wybraniu przez rozmówcę terminu, polecam przesłanie zaproszenia z kalendarza oraz numeru telefonu komórkowego. Przydatne jest również wysłanie e-maila z przypomnieniem dzień wcześniej lub rano przed popołudniową rozmową telefoniczną.

Ile Google wie o Tobie : Pola nagłówka przeglądarki

Przeglądarki internetowe muszą komunikować się z serwerami sieciowymi, aby żądać i odbierać treści internetowe, których żądają ich użytkownicy. Aby wykonać te zadania, przeglądarka internetowa jest zgodna ze standardem HTTP. Chociaż adresy IP są wymagane do komunikacji w Internecie i znajdują się w nagłówkach pakietów, te komunikaty HTTP są zawarte w ładunku pakietów. Każda przeglądarka zachowuje się nieco inaczej, ale poniższe tabele ilustrują zakulisową komunikację zachodzącą od przeglądarki do serwera oraz odpowiedź od serwera do przeglądarki. Przeglądarki ujawniają wiele informacji podczas odwiedzania witryn internetowych, z których niektóre są konieczne, na przykład określone żądanie HTTP, ale wiele z nich nie jest koniecznych w przypadku większości transakcji internetowych. Przeglądarki ujawnią jeszcze więcej informacji na żądanie lub, w niektórych przypadkach, domyślnie. Witryna BrowserSpy (http://gemal.dk/browserspy/) została zaprojektowana w celu sondowania przeglądarek i wyświetlania informacji, które pobiera. Wyniki różnią się w zależności od przeglądarki, ale mogą obejmować system operacyjny, wersję przeglądarki, procesor, rozmiar ekranu, wtyczki, obecność karty dźwiękowej, lokalną datę i godzinę, wersję paska narzędzi Google Toolbar, wersję skryptów Visual Basic, preferowany język, wersje odtwarzacza multimediów, pliki cookie i wartości odsyłających, między innymi. W poprzedniej sekcji wykazano, że adresy IP są wymagane do przeglądania sieci i mogą być wykorzystywane jako sposób śledzenia ujawnień użytkowników; zbieranie informacji z przeglądarek i dodawanie ich do rekordu związanego z każdym adresem IP jest trywialne, tworząc znacznie bardziej wszechstronny obraz odwiedzających witrynę internetową. Aby poczuć skalę ujawniania informacji w przeglądarce, spróbuj odwiedzić BrowserSpy za pomocą różnych przeglądarek internetowych. W poniższych sekcjach omówiono dwie szczególnie istotne formy ujawniania informacji o przeglądarce, pliki cookie i wartości odniesienia.

Zaufanie w Cyberspace : Wybór i pomiar TMP

Po zakończeniu fazy wykrywania usług mamy kilku dostawców CSP, których znamy, którzy są w stanie obsłużyć nasze zadanie. Klient będzie musiał wybrać jeden z tych dostawców CSP. Kolejnym krokiem w zarządzaniu zaufaniem jest określenie parametrów, na podstawie których CSP będą oceniane i porównywane. Określiliśmy te parametry jako TMP, a proces doboru odpowiednich TMP i pomiaru ich wartości nazywa się selekcją i pomiarem TMP

Ciemna Strona Neta : Burzenie niewłaściwych ścian

Ci z nas na Zachodzie, którym zależy na obronie wolności słowa w Internecie, nie mogą już sobie pozwolić na myślenie o cenzurze opartej na przestarzałych modelach opracowanych podczas zimnej wojny. Stary model zakładał, że cenzura jest kosztowna i może być przeprowadzona tylko przez jedną partię – rząd. Dziś jednak, podczas gdy wiele rodzajów cenzury jest nadal drogich (np. Oprogramowanie takie jak GreenDam), inne są tanie i stają się tańsze (np. Ataki DDoS). To pozwala rządom uchylić się od winy – w końcu nie dokonują cenzury – a tym samym znacząco zaniża całkowitą cenzurę na świecie. W wielu przypadkach rządy nie muszą w ogóle nic robić; wielu ich lojalnych zwolenników będzie samodzielnie przeprowadzać ataki DDoS. Demokratyzacja dostępu do przeprowadzania cyberataków doprowadziła do demokratyzacji cenzury; może to mieć mrożący wpływ na wolność wypowiedzi. Ponieważ coraz więcej cenzury przeprowadzają pośrednicy (np. Portale społecznościowe), a nie rządy, sposobem obrony przed cenzurą jest znalezienie sposobów wywierania komercyjnej, a nie tylko politycznej presji na głównych zaangażowanych w nią autorów. Staje się również jasne, że autorytarne rządy mogą i będą opracowywać wyrafinowane strategie informacyjne, które pozwolą im utrzymać wzrost gospodarczy bez poluzowania kontroli nad działaniami internetowymi ich przeciwników. Z pewnością nie chcemy tracić całej naszej energii na burzenie niektórych wyimaginowanych murów, upewniając się, że wszystkie informacje są dostępne – tylko po to, aby odkryć, że cenzura jest obecnie zlecana korporacjom lub tym, którzy wiedzą, jak przeprowadzać ataki DDoS. To kolejny powód, dla którego „wirtualne ściany” i „kurtyny informacyjne” są niewłaściwymi metaforami, które pomagają nam w konceptualizacji zagrożenia wolności w Internecie. Niezmiennie skłaniają decydentów do wybierania rozwiązań pozwalających przełamać blokadę informacyjną, co jest dobre i przydatne, ale tylko tak długo, jak długo istnieje coś po drugiej stronie blokady. Przełamanie zapór ogniowych i odkrycie, że poszukiwane treści zostały usunięte przez gorliwego pośrednika lub usunięte w wyniku cyberataku, przyniesie rozczarowanie. Jest wiele rzeczy do zrobienia, aby chronić się przed tym nowym, bardziej agresywnym rodzajem cenzury. Jednym z nich jest poszukiwanie sposobów na udostępnienie kopii lustrzanych witryn internetowych, które są przedmiotem ataków DDoS, lub szkolenie administratorów, z których wielu jest samoukami i może nie zarządzać odpowiednio kryzysem, aby to robić. Innym jest znalezienie sposobów na zakłócenie, wyciszenie, a nawet celowe zanieczyszczenie naszego „wykresu społecznościowego”, czyniąc go bezużytecznym dla tych, którzy chcieliby ograniczyć dostęp do informacji na podstawie danych demograficznych użytkowników. Możemy nawet chcieć dowiedzieć się, w jaki sposób każdy online może udawać bankiera inwestycyjnego, który chce czytać Financial Times! Można też utrudnić przechwytywanie i usuwanie różnych grup z Facebooka i innych serwisów społecznościowych. Można też zaprojektować sposób na czerpanie korzyści z metod takich jak „crowdsourcing” w walce, a nie tylko ułatwianie cenzury internetowej; z pewnością, jeśli grupa rządowych rojalistów przeczesuje sieć w celu znalezienia nowych celów cenzury, inna grupa może również szukać stron internetowych wymagających dodatkowej ochrony? Zachodni decydenci mają długą listę opcji do wyboru i wszystkie z nich należy dokładnie rozważyć nie tylko na ich własnych warunkach, ale także pod kątem negatywnych niezamierzonych konsekwencji – często poza regionem geograficznym, w którym są stosowane – że każdy z nich nieuchronnie wygenerowałby. Oczywiście konieczne jest dalsze finansowanie różnych narzędzi umożliwiających dostęp do zabronionych witryn internetowych, ponieważ blokowanie użytkownikom dostępu do niektórych adresów URL jest nadal dominującą metodą kontroli Internetu. Jednak decydenci nie powinni tracić z oczu nowych i potencjalnie bardziej niebezpiecznych zagrożeń dla wolności słowa w Internecie. Ważne jest, aby zachować czujność i nieustannie szukać nowych, ale niewidocznych barier; walka ze starszymi, zwłaszcza tymi, które i tak już się rozpadają, to raczej kiepski fundament skutecznej polityki. W przeciwnym razie przypadki takie jak Rosja, która ma niewiele formalnych metod filtrowania w Internecie, ale wiele innych metod napinania mięśni w Internecie, będą nadal intrygować zachodnich obserwatorów. Najważniejszą rzeczą, o której należy jednak pamiętać, jest to, że różne konteksty powodują różne problemy i dlatego wymagają niestandardowych rozwiązań i strategii. Trzymanie się centryzmu internetowego – tej zgubnej tendencji do umieszczania technologii internetowych ponad środowiskiem, w którym działają – daje decydentom fałszywe poczucie komfortu, fałszywą nadzieję, że projektując technologię uniwersalną dla wszystkich, która niszczy każdą napotkaną zaporę ogniową , rozwiążą też problem kontroli Internetu. Ostatnia dekada, charakteryzująca się, jeśli w ogóle, ogromnym wzrostem zarówno ilości, jak i wyrafinowania kontroli, sugeruje, że reżimy autorytarne okazały się bardzo twórcze w tłumieniu sprzeciwu środkami niekoniecznie technologicznymi. W związku z tym większość zapór ogniowych, które mają zostać zniszczone, ma charakter społeczny i polityczny, a nie technologiczny. Problem polega na tym, że to technolodzy, którzy projektowali narzędzia do przełamywania zapór technologicznych, a nie politycznych – i często robili to przy finansowym wsparciu zachodnich rządów i fundacji – kontrolują publiczne rozmowy. W ich bezpośrednim interesie jest przecenianie skuteczności własnych narzędzi i bagatelizowanie obecności innych nietechnologicznych zagrożeń dla wolności słowa. Robiąc to, wprowadzają w błąd decydentów, którzy następnie podejmują złe decyzje dotyczące alokacji zasobów w walce z kontrolą Internetu. Shiyu Zhou, założyciel grupy technologicznej Falung Gong, która projektuje i dystrybuuje oprogramowanie umożliwiające dostęp do stron zakazanych przez chiński rząd, mówi, że „cała walka o Internet sprowadziła się do walki o zasoby” i że „za każdego dolara, Wydają [Ameryka], Chiny muszą wydać sto, może setki dolarów ”w wywiadzie dla New York Times jako część argumentu, że należy przeznaczyć więcej funduszy na promocję takich narzędzi w Iranie. W najlepszym przypadku jest to mylące, aw najgorszym nieszczere, jest to powrót do zimnowojennych debat o zmniejszeniu dystansu rakietowego, ale tym razem przez nadmierne wydatki wroga na broń cyfrową. Tego rodzaju argumenty tylko utrwalają mity, takie jak „dylemat dyktatora”, i sugerują, że rządy autorytarne są bardziej narażone na zagrożenie ze strony technologii niż w rzeczywistości. Ale nawet jeśli uda się przezwyciężyć takie przebiegłe manipulowanie opinią publiczną, to wciąż należy pamiętać, że żadne rozwiązania problemu cenzury nie mogą być opracowane w oderwaniu od pozostałych dwóch problemów – nadzoru i propagandy. Zdecentralizowany charakter Internetu sprawia, że ​​stosunkowo łatwo jest skonfigurować nieskończoną liczbę kopii dla każdego bajtu informacji udostępnianych w sieci. Ta zdolność nie jest jednak bezpłatna, nawet jeśli koszty finansowe są marginalne, ponieważ pozwala ona także na tworzenie nowych, szybszych i często bardziej legalnych wydawnictw, które mogą uczynić rządową propagandę bardziej wiarygodną. Co więcej, otwiera możliwości śledzenia, w jaki sposób informacje rozprzestrzeniają się w Internecie, umożliwiając władzom lepsze poznanie osób, które je rozpowszechniają. Informacje chcą być darmowe, ale robią to również ci, którzy je wymieniają.

Audyt Umysłu Hackera : Porównanie średnich wartości elementów obiektu inhibitora

Im wyższa złożona pozycja przeciwnika w piramidzie ujawniania podatności, tym niższe średnie postrzegane prawdopodobieństwo wykrycia danej próby i wyższe średnie postrzegane prawdopodobieństwo sukcesu danej próby. Nie dajcie się zwieść założeniu, że miernik piramidy ujawnienia jest również wskaźnikiem zagrożenia, jakie może stwarzać osoba często umieszczana wysoko w piramidzie ujawnienia. Zagrożenie mierzone jest w wyniku obserwacji zarówno motywacji, jak i możliwości przeciwnika w stosunku do określonego zasobu – miernik piramidy nie jest żadną miarą przeciwnej motywacji. Odgrywa jednak ważną rolę w nakreśleniu jednej z kluczowych relacji między zasobami technicznymi przeciwnika a postrzeganymi obserwacjami preferencji ataku, takimi jak postrzegane prawdopodobieństwo sukcesu przy próbie

Agile Leadership : ADAPTACYJNE PRZYWÓDZTWO: JEDNO PYTANIE, WIELE ODPOWIEDZI

Praca Ronalda Heifetza na Uniwersytecie Harvarda pomaga nam przemyśleć pytania, które moglibyśmy zadać w danej sytuacji. Heifetz określa pytania jako techniczne lub adaptacyjne. Kiedy definicja problemu, rozwiązanie i implementacja są jasne, Heifetz nazywa to kwestią techniczną. W obliczu pytania technicznego liderzy mogą wykorzystać wiedzę ekspercką i znany sposób myślenia, aby doprowadzić ich do rozwiązania. Zwykle jest jedno rozwiązanie problemu technicznego. Odpowiedź na pytanie techniczne często prowadzi do stopniowej poprawy obecnych praktyk. Przykładami mogą być miasto, które codziennie zbiera wszystkie śmieci zgodnie z harmonogramem, firma rozwiązująca problem z jakością, aby ponownie uruchomić linię produkcyjną, lub agencja rządowa, która decyduje, jak skrócić czas oczekiwania w agencji publicznej. Rozwiązania problemów technicznych niekoniecznie są łatwe – wszystkie te przykłady wymagałyby osób (lub zespołu) z dużym doświadczeniem. Jednak w przypadku problemów technicznych liderzy angażują wykwalifikowaną osobę lub zespół w celu znalezienia rozwiązania przy użyciu ich umiejętności technicznych. Pytania adaptacyjne są różne. Wskazują nam wyzwania, na które nie ma jasnych odpowiedzi. Pytania adaptacyjne mogą wywołać wiele odpowiedzi, z których wszystkie mogą prowadzić do akceptowalnych rozwiązań. Te typy pytań nie mają znanych procedur ani wyników; wymagają głębszego kwestionowania podstawowych założeń i wartości. Rozwiązywanie pytań adaptacyjnych wymaga od nas znacznie większego wysiłku, tolerancji dla niepewności i obecności rozbieżnych głosów. Na pytania adaptacyjne najlepiej jest również odpowiadać grupa, która będzie wdrażać proponowane rozwiązania. Będziemy musieli zaangażować innych, poprzez ich zbiorową inteligencję i strategiczną intuicję. Poznajcie naszą wspólną drogę do możliwych rozwiązań. Oto kilka przykładów pytań adaptacyjnych: Czy wszyscy uczniowie w trzeciej klasie mogą czytać w trzeciej klasie? Jak mogliśmy zostać najzdrowszym hrabstwem w stanie? Czy możemy stworzyć solidny klaster technologii cyfrowej? Jak zostać wybranym pracodawcą w naszej branży? Jaki jest najlepszy sposób odpowiedzi na nową technologię, która może szybko osłabić naszą pozycję na rynku? Każdy z tych przykładów ma wiele możliwych odpowiedzi, a każde rozwiązanie może się do niej przyczynić. Lider adaptacyjny rozwija umiejętność zadawania jasnych, adaptacyjnych pytań. Te pytania wskazują zespołowi, organizacji lub społeczności w nowym kierunku. Bycie adaptacyjnym liderem wymaga otwartości na eksperymenty i innowacje w celu generowania odpowiedzi na pytania adaptacyjne. Stwierdzisz, że twoje eksperymenty – twoje wysiłki, aby odpowiedzieć na twoje pytanie adaptacyjne – są iteracyjne. Nie można ich w pełni zaplanować przed rozpoczęciem. Przekonasz się również, że gdy uwolnisz się od chęci kontroli, pojawią się nowe rozwiązania. Badanie tych potencjalnych rozwiązań pozwala budować nowe poziomy zaufania i współpracy między ludźmi, którzy są częścią podróży w celu odkrycia nowych odpowiedzi na pytania adaptacyjne. Pokrótce omówiliśmy niegodziwe problemy w pierwszym rozdziale. Są to prawie zawsze wyzwania adaptacyjne. Możesz myśleć o niegodziwych problemach jako o tych, które wydają się trudne lub niemożliwe – charakterystyka problemu sprawia, że ​​wiesz, gdy się zmieniają, a twoja wiedza może wydawać się niepełna. Niekoniecznie są to „złe” problemy, ale zły problem może się wydawać, że nie da się go rozwiązać, ze względu na wiele wzajemnych powiązań, które znajdujesz, pracując nad jego rozwiązaniem. Na podstawie swojej pracy w architekturze i urbanistyce pomysłodawcy (Rittel i Webber) opisali nikczemne problemy planowania publicznego: bezpieczeństwo publiczne, edukacja, transport, przystępne cenowo mieszkania, kryzysy zdrowotne, ochrona przyrody i inne wyzwania społeczne. W ostatnich latach dyskusja rozszerzyła się, gdy korporacje stojące w obliczu globalizacji zdały sobie sprawę, że mają własne nikczemne problemy. Aby rozwiązać te problemy, w coraz większym stopniu muszą uwzględniać różne punkty widzenia międzynarodowych klientów i pracowników. Odkryliśmy, że najbardziej produktywny sposób rozwiązywania niegodziwych problemów zaczyna się od przyciągnięcia różnorodnych głosów za pomocą potężnego pytania. Te pytania nas wciągają. Wyruszyli w podróż, aby znaleźć nowe możliwości sprostania tym wyzwaniom. Jeśli czytasz tę książkę, prawdopodobnie masz do czynienia z wyzwaniami adaptacyjnymi. Twoje postawione pytanie będzie zatem musiało uznać tę rzeczywistość. Dobre pytania z ramkami to pytania adaptacyjne. Ze swojej natury wydają się duże, odważne i inspirujące. Chwytają słuchacza, który chce wiedzieć więcej o tym, jak to zostanie osiągnięte i jak może być częścią rozwiązania. Dobre sformułowanie pytania to zaproszenie do głębszej rozmowy, która doprowadzi do większej liczby pytań, eksperymentów i ostatecznie do innowacji. Jak wygląda takie pytanie? Tina Seelig z Wydziału Nauk Zarządzania i Inżynierii Uniwersytetu Stanforda oraz dyrektor wydziału programu Stanford Technology Ventures demonstruje siłę przeformułowania pytania na prostym przykładzie. Zaczyna od pytania: co równa się 5 plus 5? Odpowiedź to oczywiście 10. Mamy proste pytanie z jedną odpowiedzią. Ale co, jeśli zmienimy nasze pytanie w ten sposób: jakie dwie liczby są równe 10? Na to drugie pytanie mamy nieskończoną liczbę możliwych odpowiedzi. Punkt Seeliga jest głęboki: sposób, w jaki zadajemy pytania, otwiera nas na nowe możliwości. Nasze dwa pytania różnią się jedynie sposobem, w jaki zostały sformułowane. W naszych organizacjach i społecznościach stajemy przed coraz większą liczbą wyzwań adaptacyjnych. Zmierzając się z tymi wyzwaniami, będziesz chciał zadać pytanie, które otworzy drzwi do nieskończonych odpowiedzi i nowych możliwości. Będziesz także chciał zadać pytanie ramowe, które łączy się z unikalną kombinacją ludzi zebranych, aby ci pomóc. Brzmi trudno? To wymaga praktyki. Adaptacyjni liderzy są naprawdę dobrzy w formułowaniu przekonujących pytań dotyczących przyszłości, której jeszcze nie widzimy.

Lean Customer Development: Planowanie rozmów telefonicznych

Po uzyskaniu odpowiedzi twierdzącej od osoby możesz przejść do bardziej taktycznych szczegółów. Twoja praca: sprawić, by niezwykle łatwo było jej poświęcić czas na rozmowę.

Dziękuję za chęć pomocy!

Chciałbym umówić się na 20-minutową rozmowę telefoniczną, abym mógł się od Ciebie nauczyć.

Nie trzeba przygotowywać się z wyprzedzeniem; słysząc tylko o Twoich doświadczeniach

z ________, z twojej osobistej perspektywy, będzie ogromną pomocą dla mnie.

Czy któryś z tych terminów Ci odpowiada?

Poniedziałek, 8 lipca, 9:00 czasu PST (12:00 czasu EST)

Poniedziałek, 8 lipca, 11:30 czasu PST (14:30 czasu wschodniego)

Wtorek, 9 lipca, 7:00 czasu PST (10:00 czasu EST)

Czwartek, 11 lipca, 14:00 PST (17:00 EST)

W przypadku rozmowy telefonicznej polecam zaoferowanie trzech lub czterech opcji, nie wszystkie w tym samym dniu tygodnia lub o tej samej porze dnia. Upewnij się, że dokładnie określasz proponowaną strefę czasową. Jeszcze lepiej, dowiedz się z wyprzedzeniem, czy rozmówca mieszka w innej strefie czasowej i zaproponuj odpowiednie godziny. Telefon o 9 rano nie jest rozsądną propozycją, jeśli jesteś w Nowym Jorku, a rozmówca jest w Los Angeles. Jeśli korzystasz z Gmaila, zalecamy pobranie wtyczki przeglądarki o nazwie Rapportive (http://www.rapportive.com). Po wpisaniu adresu e-mail program Rapportive pobiera powiązane publicznie dostępne dane z LinkedIn, Twittera i Google i wyświetla je na pasku bocznym obok okna tworzenia wiadomości. Może zawierać zdjęcie, lokalizację, stanowisko i najnowsze posty w mediach społecznościowych. Jeśli korzystasz z programu Outlook w systemie Windows, możesz użyć programu Outlook Social Connector (http://www.linkedin.com/static?key=microsoft_outlook) do przeglądania odpowiednich informacji LinkedIn podczas tworzenia wiadomości. Nie wszyscy konsumenci mają profile LinkedIn, ale większość biznesmenów lub pracowników informacji ma profil, który zawiera przynajmniej lokalizację i stanowisko.

Ile Google wie o Tobie : Adresy IP

Adresy IP zostały zaprojektowane w celu jednoznacznej identyfikacji komputerów w Internecie i służą do adresowania pakietów, które wszystkie komputery w Internecie wysyłają i odbierają podczas komunikacji. Paczki są podstawową jednostką komunikacji w Internecie i są nieco podobne do listów w tradycyjnym systemie pocztowym. Każdy pakiet zawiera adresowanie (pomyśl o adresie pocztowym nadawcy i docelowym) i informacje kontrolne, które pomogą zapewnić, że pakiet pomyślnie dotrze do miejsca przeznaczenia, a także ładunek pakietu, który zawiera treść samej komunikacji (pomyśl o treści listu) . Gdy użytkownicy sieci korzystają z usługi online, ich przeglądarki internetowe i docelowe serwery internetowe wysyłają i odbierają wiele pakietów. Każdy pakiet wysyłany z przeglądarki użytkownika powoduje wyciek dwóch adresów IP, adresu użytkownika i adresu docelowego. Obecnie większość Internetu korzysta z protokołu IP w wersji 4, który przydziela 32 bity na źródłowy adres IP i 32 bity na docelowy adres IP. Oznacza to, że istnieje 232 (4 294 967 296) teoretycznych adresów IP dostępnych w Internecie. Początkowo wydawało się, że 4,3 miliarda adresów wystarczyło na pokrycie wszystkich potencjalnych komputerów podłączonych do Internetu. Jednak eksplozja komputerów osobistych i mobilnych szybko spowodowała niedobór, co zmusiło ludzi do znalezienia sposobów udostępniania lub innego oszczędzania adresów IP. To udostępnianie pomaga zapewnić pewien stopień anonimowości, przerywając bezpośrednie połączenie między danym komputerem a jego adresem IP. Typowe formy udostępniania obejmują translację adresów sieciowych (NAT) i dynamiczne przydzielanie adresów IP przy użyciu techniki zwanej protokołem dynamicznej konfiguracji hosta (DHCP). Urządzenia NAT przekształcają adresy IP znalezione w sieci wewnętrznej na pojedynczy adres IP lub niewielką liczbę adresów IP w publicznym Internecie. Podstawową ideą jest to, że setki, tysiące lub nawet więcej komputerów może znajdować się w sieci wewnętrznej, a wszystkie mają wspólny adres IP w samym Internecie. Urządzenie NAT śledzi połączenia przychodzące i wychodzące oraz konwertuje adresy IP w locie z sieci wewnętrznej do Internetu i odwrotnie. Efektem końcowym jest znaczne zmniejszenie całkowitej liczby unikalnych adresów IP bezpośrednio podłączonych do Internetu. DHCP umożliwia również udostępnianie adresów IP, ale w nieco inny sposób. Korzystając z protokołu DHCP, komputerom przydzielany jest adres IP, gdy o niego proszą. Gdy adres nie jest już używany, serwer DHCP może przydzielić adres innemu komputerowi. Dzieląc się pulą adresów, dostawcy usług internetowych mogą zmaksymalizować swoją skończoną liczbę publicznych adresów IP. Ze względu na stale zmieniający się charakter przypisywania adresów IP, DHCP pomaga również dodać pewien stopień niepewności (z punktu widzenia firmy internetowej) między danym komputerem a jego publicznym adresem IP – im większa pula możliwych adresów i krótszy czas trwania zadania, tym lepiej.

Podczas gdy w IPv4 może brakować adresów IP, IPv6 ma na celu przezwyciężenie tego ograniczenia. Zamiast 32 bitów, IPv6 przydziela po 128 dla adresu źródłowego i docelowego, co daje łącznie 2128 (3,4 x 1028) możliwych adresów. Jednak protokół IPv6 pojawia się od wielu lat, ale nie został jeszcze powszechnie przyjęty ze względu na potencjalne koszty i ryzyko związane z przejściem. W dzisiejszym środowisku większość sieci korporacyjnych wykorzystuje zarówno NAT, jak i DHCP. Domowi użytkownicy ISP zwykle otrzymują swój adres IP przez DHCP i mogą również korzystać z NAT, jeśli używają routera kablowego / DSL, takiego jak te firmy Linksys. Możesz pomyśleć, że adres IP zapewnia pewien stopień anonimowości i tak jest, ale każdy adres IP może ostatecznie być powiązany z indywidualnym komputerem, a tym samym z użytkownikiem końcowym, jeśli dostawca sieci prowadzi rejestry. Zazwyczaj powiązanie adresu IP z użytkownikiem końcowym wymaga co najmniej dwóch kroków. Po pierwsze, adres IP musi być śledzony z powrotem do organizacji, która jest upoważniona do jego używania. Bloki adresów IP są przydzielane dostawcom usług internetowych i większym firmom, więc wszystkie legalne adresy IP należą do jednej z tych przydziałów grup. W większości przypadków alokacje adresów IP są publicznie dostępne.  Dostawca usług internetowych lub firma autoryzowała dany blok, a następnie przydziela adresy IP poszczególnym komputerom, tak jak zrobiła to AOL w tym przykładzie. Jednak AOL i inni dostawcy usług internetowych nie ujawniają publicznie, którym kontom użytkowników przypisano adresy IP w normalnych okolicznościach; Mimo to można bezpiecznie założyć, że prowadzą szczegółowe zapisy. Podobnie jak w przypadku wszelkich dokumentów przechowywanych przez firmy internetowe, zapisy te mogą zostać wezwane do sądu, udostępnione, skradzione lub utracone. Informacje o adresie IP mogą również pomóc w określeniu fizycznej lokalizacji użytkownika. W większości przypadków dostawcy usług internetowych mogą wskazać dokładną lokalizację swoich abonentów przewodowych i zlokalizować abonentów bezprzewodowych z mniejszą dokładnością. Jednak informacje o geolokalizacji są również publicznie dostępne, ale z mniejszą dokładnością. Szereg firm, takich jak MaxMind, opracowało bazy danych geolokalizacji adresów IP, które mogą wskazywać region geograficzny użytkownika z rozsądną dokładnością. Niektórzy szacują, że geolokalizacja na poziomie kraju z publicznie dostępnych baz danych jest dokładna w 95%; geolokalizacja na poziomie miasta jest dokładna od 50% do 80%. Strony trzecie starały się zwiększyć tę dokładność, współpracując z witrynami internetowymi, na których użytkownicy wprowadzają fizyczną lokalizację lub kod pocztowy. Krótko mówiąc, chociaż adresy IP wydają się być tarczą, za którą można się ukryć, zapewniają niewielką ochronę prywatności. Jeśli właściciel danego bloku adresów IP przekręci logi zawierające dane konta użytkownika, na które został wydany dany adres IP w interesującym go momencie, ochrona przepada. Ponadto weź pod uwagę, że Google, które każdego miesiąca odwiedza miliony unikalnych użytkowników, może zbudować masę bazy danych czynności związana z każdym adresem.

Uwaga : Komunikacja sieciowa ujawnia adres IP internauty i może ujawnić używany system operacyjny.

Zaufanie w Cyberspace : Wykrywanie usług

Konsorcjum World Wide Web Consortium (W3C) [17] definiuje wykrywanie usług w następujący sposób:

czynność polegająca na zlokalizowaniu przetwarzalnego maszynowo opisu zasobu związanego z usługą sieciową, który mógł być wcześniej nieznany i który spełnia określone kryteria funkcjonalne. Polega ona na dopasowaniu zestawu kryteriów funkcjonalnych i innych do zestawu opisów zasobów. Celem jest znalezienie odpowiedniego zasobu związanego z usługą sieci Web.

Chociaż ta definicja została utworzona w celu wykrywania usług sieci Web, możemy bez utraty ogólności zastąpić sieć Web w definicji chmurą. Pierwszym krokiem do przyjęcia rozwiązania opartego na chmurze jest znalezienie rozwiązań / usług dostępnych na rynku, które mogą zaspokoić potrzeby Twoich aplikacji i wstępnie spełnić Twoje wymagania. W obecnym scenariuszu ten krok jest głównie ręczny; Jednak wraz z gwałtownym wzrostem liczby dostawców CSP, wkrótce konieczne będzie znalezienie dobrze zdefiniowanej metody wykrywania usług. Pomoże to konsumentom zaoszczędzić pieniądze, automatycznie wykrywając niezbyt dobrze znane, ale kompetentne CSP. Uniwersalny interfejs opisu i wykrywania (UDDI) oraz język opisu usługi WWW (WSDL) zostały użyte do wykrywania usług w usłudze WWW. Wyzwania związane z wykrywaniem usług w chmurze są jednak złożone, ponieważ usługi są oferowane na różnych warstwach [infrastruktura jako usługa (IaaS), platforma jako usługa (PaaS) i oprogramowanie jako usługa (SaaS)] i obejmują nie tylko oprogramowanie, ale zasoby sprzętowe też. Tradycyjne metody wykrywania usług SOA nie mogą przenikać przez warstwy i dlatego są nieefektywne. Dlatego potrzebne są metody wykrywania usług specjalnie ukierunkowane na przetwarzanie w chmurze. Kompozycja usług wraz z wykrywaniem usług jest również integralną częścią tego komponentu TMS. Wei i Blake zwracają uwagę, że chociaż wysiłki w zakresie standaryzacji usług internetowych nie przyniosły jeszcze wielu owoców, w przypadku przetwarzania w chmurze usługi są z natury scentralizowane ze względu na naturę chmury. Autorzy dalej rozwijają, że federacja chmury może zapewnić jednolitość i otwarte drzwi do wykrywania usług, co przyniosłoby korzyści użytkownikom końcowym w tworzeniu i komponowaniu usług analogicznych do usług internetowych. Odkrywanie i kompozycja usług to interesujący obszar badań w dziedzinie przetwarzania w chmurze. Wcześniej zaproponowano rozwiązania oparte na ontologii i atrybutach. Cloudle to oparta na ontologii wyszukiwarka usług w chmurze, która bierze również pod uwagę semantyczne relacje między różnymi koncepcjami przetwarzania w chmurze. Cloudle najpierw definiuje pewne koncepcje przetwarzania w chmurze, w które wpadnie każdy obiekt. Każdy obiekt (obiekty mogą być dostawcami usług) ma dobrze zdefiniowane właściwości, a właściwości mają dobrze zdefiniowane wartości. Następnie wykonuje trzy różne rodzaje wyszukiwania podobieństwa, podobieństwa koncepcji, podobieństwa właściwości obiektu i podobieństwa właściwości typu danych i zwraca wyniki do użytkownika na podstawie wyniku podobieństwa. Gościnski i Brock wprowadzają zasoby za pośrednictwem struktury usług sieci Web (RVWS) dla stanowych usług sieci Web dla przetwarzania w chmurze. W artykule uznano, że stan zasobów w przetwarzaniu w chmurze jest dynamiczny, w związku z czym bezstanowe usługi sieciowe nie mogą być używane w takim scenariuszu. W RVWS usługi sieci Web składają się z dwóch rodzajów atrybutów; atrybuty stanu i atrybuty charakterystyczne. Charakterystyczne atrybuty to atrybuty, które nie zmieniają się w czasie, takie jak całkowita liczba dysków twardych w maszynie i liczba rdzeni. podczas gdy atrybuty stanu są atrybutami dynamicznymi, takimi jak wykorzystanie procesora i używany dysk. Wydawcy lub dostawcy zasobów w tym przypadku publikują swoje zasoby w dynamicznym brokerze. Dynamiczny broker udostępnia konsumentom interfejs sieciowy i wykorzystuje strukturę RVWS do wybierania dla nich odpowiednich zasobów.

Ciemna Strona Neta : Odmowa filozofii

Jeśli filozofia jest Twoją pasją, Arabia Saudyjska nie znalazłaby się na szczycie Twojej listy miejsc do spędzenia roku za granicą. Być może dlatego, że dyscyplina zachęca do samodzielnego myślenia i kwestionowania władzy (lub po prostu pogarsza problem bezrobocia), przedmiot ten jest zakazany na uniwersytetach, podobnie jak książki filozoficzne. Wyjaśniając swój opór wobec wprowadzania filozofii jako przedmiotu do programu nauczania w saudyjskiej szkole średniej, dyrektor planowania w Jeddah Educational Administration zauważył w grudniu 2005 r., Że „filozofia jest przedmiotem wywodzącym się od Greków i Rzymian. . . . Nie potrzebujemy tego rodzaju filozofii, ponieważ Święty Koran jest bogaty w filozofię islamu ”. Współczesne elementy społeczeństwa obywatelskiego Arabii Saudyjskiej miały nadzieję, że w końcu uzyskają pewną autonomię w cyberprzestrzeni. A ich nadzieje nie poszły na marne: Internet szybko wypełnił pustkę, oferując prawie darmowy i łatwy dostęp do książek filozoficznych, wykładów wideo i czasopism naukowych. Nie było jednak scentralizowanego repozytorium linków do takich treści, więc kilku Saudyjczyków, wykształconych w Stanach Zjednoczonych, założyło forum internetowe Tomaar, aby omawiać wszystkie sprawy związane z filozofią i udostępniać linki do interesujących treści. Strona odniosła ogromny sukces; w ciągu zaledwie kilku miesięcy witryna wyszła poza filozofię, a jej użytkownicy omawiali politykę Bliskiego Wschodu i kontrowersyjne kwestie społeczne (ponieważ strona była w języku arabskim, odwiedzali ją również użytkownicy spoza Arabii Saudyjskiej). W szczytowym momencie witryna miała ponad 12 000 aktywnych członków, którzy publikowali średnio 1000 postów dziennie. Ale był to krótkotrwały triumf. Niedługo potem saudyjski rząd zauważył fenomenalny sukces Tomaara i szybko zakazał wszystkim saudyjskim użytkownikom dostępu do strony. Był to jednak problem łatwy do rozwiązania. W ciągu ostatniej dekady pojawiło się wiele narzędzi umożliwiających obejście takich rządowych zakazów; do ich powstania przyczyniła się przede wszystkim nadmierna cenzura władz chińskich. Zasadniczo rządy nie mogą usunąć treści, których nie lubią, zwłaszcza jeśli są one umieszczone na obcym serwerze; co mogą zrobić, to zakazać własnym obywatelom dostępu do tych treści, wymagając od dostawców usług internetowych, aby po prostu zaprzestali obsługi żądań dotyczących określonego adresu URL. Można jednak oszukać dostawców usług internetowych, łącząc się z komputerem innej firmy i korzystając z połączenia internetowego tego komputera, aby uzyskać dostęp do potrzebnych treści; rząd zobaczy tylko, że jesteś podłączony do jakiegoś przypadkowego komputera w sieci, ale nie będą wiedzieć, że masz dostęp do treści, których nie lubią. Fani Tomaara zrobili dobry użytek z takich narzędzi służących do omijania cenzury i mogli korzystać z witryny pomimo zakazu. (Oczywiście, gdy zbyt wielu użytkowników połączy się z jednym komputerem lub jego adres zostanie opublikowany, władze mogą zrozumieć, co się dzieje i również zakazać dostępu do niego.) Ale ich radość nie trwała długo. Wkrótce potem strona stała się niedostępna nawet dla tych użytkowników, którzy polegali na narzędziach do omijania cenzury. Okazało się, że strona cieszyła się taką popularnością, że była po prostu przeciążona ruchem internetowym. Amerykańska firma, która gościła Tomaara, napisała do administratorów strony, aby poinformować ich, że rozwiązuje ich umowę, czyniąc witrynę „cyfrowym uchodźcą”. Działo się coś niesamowitego, a administratorzy Tomaara nie mogli zrozumieć, co to jest (żaden z nich nie był technikiem = jeden pracował jako sprzedawca w wysokiej klasy elektronicznym sklepie, a inny był doradcą finansowym w banku). Minęło trochę czasu, zanim stało się jasne, że Tomaar był celem przedłużającego się cyberataku, którego celem było uniemożliwienie dostępu do strony internetowej. Ten rodzaj ataku – tak zwany atak typu Distributed-Denial-of- Service (DDoS) – jest coraz popularniejszym sposobem uciszenia przeciwników. Podobnie jak puby i salony, wszystkie strony internetowe mają określone limity obłożenia. Popularne witryny, takie jak CNN.com, mogą obsługiwać miliony jednoczesnych sesji, podczas gdy większość witryn amatorskich ledwo obsługuje sto lub dwieście jednoczesnych wizyt. Atak DDoS ma na celu wykorzystanie takich ograniczeń zasobów, wysyłając fałszywych gości do wybranych witryn internetowych. Skąd pochodzą tacy fałszywi goście? Są generowane przez komputery, które zostały zainfekowane złośliwym oprogramowaniem i wirusami, dzięki czemu osoba trzecia może przejąć nad nimi pełną kontrolę i korzystać z ich zasobów w dowolny sposób. Obecnie zdolność do przeprowadzania takich ataków jest często kupowana i sprzedawana w serwisie eBay za kilkaset dolarów. Ponieważ atak pochodzi z tysięcy komputerów, prawie zawsze niemożliwe jest zidentyfikowanie jego sprawcy. Tak było w przypadku Tomaara. Chociaż wydawało się logiczne, że rząd Arabii Saudyjskiej byłby zainteresowany wyciszeniem strony, nie ma konkretnych dowodów na potwierdzenie tego związku. Ale firma hostingowa Tomaar nie porzuciła ich bez powodu: ataki DDoS pochłaniają duży ruch, późniejsze sprzątanie zajmuje trochę czasu, a rachunki muszą płacić firmy hostingowe. W ten sposób sprzeciw online może łatwo przekształcić się w istniejący stan. Jeśli masz do powiedzenia coś wrażliwego i może to przyciągnąć ataki DDoS, większość firm hostingowych zastanowi się dwa razy, zanim zarejestruje Cię jako swojego klienta. Ponieważ firmy są również częstym celem ataków DDoS, istnieje komercyjny rynek usług ochrony (na przykład zakazujący komputerom z niektórych części świata możliwości odwiedzania Twojej witryny), ale sprzedają one po cenach, które nie są dostępne dla większości witryny finansowane przez wolontariuszy. Ostatecznie Tomaar znalazł nowy dom, ale cyberataki trwały nadal. Witryna była regularnie niedostępna przez jeden tydzień z czterech, a ataki DDoS osłabiły ducha jej społeczności i wyczerpały kieszenie jej założycieli, którzy byli na tyle naiwni, by wierzyć, że sprzeciw online jest tak tani, jak ich miesięczna opłata za hosting. Przypadki takie jak Tomaar są coraz częstsze, zwłaszcza wśród aktywistów i organizacji praw człowieka. Birmańskie media na wygnaniu – Irrawaddy, Mizzima i Demokratyczny Głos Birmy – wszystkie doświadczyły poważnych cyberataków (najcięższa fala miała miejsce w pierwszą rocznicę rewolucji szafranowej w 2008 r.); podobnie jak białoruski opozycyjny serwis Charter97, niezależna rosyjska gazeta Nowa Gazeta (ta, w której zatrudniono zabitą rosyjską dziennikarkę Annę Politkowską), kazachska opozycyjna gazeta Respublika, a nawet różne lokalne oddziały Radia Wolna Europa / Radio Wolność. Poszczególni blogerzy również padają ofiarą takich ataków. W sierpniu 2009 roku, w pierwszą rocznicę wojny rosyjsko-gruzińskiej, Cyxymu, jeden z najpopularniejszych gruzińskich blogerów, padł ofiarą tak intensywnego ataku DDoS, że zlikwidował nawet potężne strony internetowe, takie jak Twitter i Facebook, na których miał zduplikowane konta. . Był to przypadek sprzeciwu, który nie mógł powiedzieć, czego chciał, ponieważ wszystkie platformy, na których ustanowił tożsamość online, były przedmiotem poważnych ataków DDoS i wywierały ogromną presję na administratorów prowadzących te platformy; oczywiście kusiło ich, aby po prostu usunąć swoje konto, aby umożliwić wszystkim innym użytkownikom kontynuowanie działalności. Ataki DDoS stanowią poważne i słabo rozumiane zagrożenie dla wolności słowa w Internecie, ponieważ coraz częściej są wykorzystywane nie tylko przeciwko stronie internetowej instytucji i firm, ale także przeciwko indywidualnym blogerom. W przeszłości konwencjonalna mądrość głosiła, że ​​aby dać głos zmarginalizowanym społecznościom, wystarczyło udostępnić je online i być może zapłacić rachunek za internet. Nigdy więcej. Bycie usłyszanym online – przynajmniej poza kilkoma pierwszymi tweetami i postami na blogu – w coraz większym stopniu wiąże się ze strategicznym zarządzaniem serwerami, tworzeniem planów tworzenia kopii zapasowych na wypadek zagrożenia DDoS, a nawet budżetowaniem niezwykle kosztownych usług ochrony przed atakami DDoS. Najgorsze w ograniczeniach wolności słowa typu DDoS jest to, że prowadzą one do znacznego zaniżenia całkowitej kwoty cenzury internetowej na całym świecie. Na nasze tradycyjne pojęcie cenzury nadal silnie wpływa binarna logika „zablokowane / odblokowane”, które w przypadkach takich jak Cyxymu czy Nowa Gazeta po prostu nie mają większego sensu. Strony mogą być technicznie odblokowane, ale ich użytkownicy nadal nie mogą uzyskać do nich dostępu przez tydzień w miesiącu. Aby rozwiązać tego rodzaju problem, zachodnie rządy i instytucje międzynarodowe nie tylko muszą stworzyć nowe wskaźniki do śledzenia cenzury internetowej, ale także muszą wyjść poza zwykłe panaceum oferowane przeciwko cenzurze internetowej, takie jak narzędzia do obchodzenia, które umożliwiają dostęp do zakazanych treści. Problem z DDoS polega na tym, że nawet użytkownicy w krajach, które nie blokują Internetu, nie mogliby uzyskać dostępu do atakowanych witryn; narzędzia obejścia nie działają w takich sytuacjach. Nie jest to już przypadek brutalnych agentów sowieckich zagłuszających Radio Wolna Europa; jest to przypadek w większości nieznanych osób – być może na liście płac Kremla, być może bez budowania blokad drogowych wokół budynku, z którego ma nadawać nowe Radio Wolna Europa. Sprzęt przeciwzakłóceniowy nie pomoże, jeśli nikt nie będzie mógł wejść do środka i wyprodukować transmisji.