W normalnym scenariuszu dane są usuwane za pomocą polecenia systemu operacyjnego. Ponadto, aby potwierdzić, proces usuwania może poprosić o potwierdzenie. Zwykle zwykłe polecenia usunięcia danych usuwają łącze do danych, ale mogą nie usunąć go całkowicie wraz ze śladami z systemu. Tak więc pojedyncza operacja usuwania może nie zniszczyć całkowicie danych z systemów chmurowych. Mechanizmy, które mogą wykonywać operację na poziomie bitowym, mogą pomóc w skuteczniejszym niszczeniu danych. W jednym z takich możliwych mechanizmów aplikacja pobiera najbardziej znaczący bit ze wszystkich bajtów i zastępuje go przeciwną wartością logiczną, to znaczy 0 zostanie zastąpione przez 1, a 1 zostanie zastąpione przez 0. To zasadniczo sprawi, że bajt będzie bezużyteczny . Podczas tego procesu niszczenia niektóre szczegółowe informacje będą przechowywane na statycznym nośniku danych przed każdą operacją niszczenia. Będzie to zawierało dziennik bieżących wartości modyfikowanego bitu, względny adres bitu i czas, w którym następuje modyfikacja. Ta aplikacja niszcząca jest wywoływana w bazie danych, do której jest podłączona aplikacja użytkownika, a mianowicie D1, aż każda krotka w danych jest systematycznie i kompleksowo wyłączana. Jednak robiąc to zakładamy, że dane nie są przechowywane w sposób ciągły, stąd potrzeba algorytmu, który odradzałby wskaźnik na adres, pod którym znajdują się kolejne dane sekwencyjne. Ponadto podczas modyfikowania wartości bitu wymagane jest, aby stare i nowe wartości bitów, aktualny czas i względny adres, pod którym dokonano zmiany, były przechowywane w stabilnym magazynie, takim jak baza danych, aby można je było wykorzystać do procesu weryfikacji danych .
Weryfikator
Po zakończeniu cyklu niszczenia konieczne jest, aby dostawca dokonał weryfikacji, najlepiej w obecności użytkownika, aby upewnić się, że bity zostały zmodyfikowane lub dane zostały zniszczone w innych kopiach bazy danych, a mianowicie w bazie danych serwery dostarczane przez dostawcę przechowywania danych w chmurze, na których kopiowane są wszystkie dane, na których każda aktualizacja danych dokonana w pierwszej bazie danych, D1, zostanie zaktualizowana po czasie ekspozycji wymienionym w bazie danych. W tym celu aplikacja weryfikatora połączy się następnie z innymi bazami danych, D2, D3 itd. Tutaj pobierze bity danych z tego samego adresu, który został zmodyfikowany w D1. Następnie przeprowadza się porównanie tej wartości bitu we wtórnych bazach danych z równoważną wartością bitu w D1, na której pracowała aplikacja destruktora. Przeprowadzając weryfikację zakładamy, że wszystkie zmodyfikowane bity i odpowiadające im wartości adresów były przechowywane jako pary klucz-wartość podczas działania programu destruktora i czasu ekspozycji wymienionego w umowie SLA, czyli czasu potrzebnego dostawcy na zaktualizowanie innych kopii aktualizacji dokonanej w jednej bazie danych. Aby uzyskać prawidłowe wyniki, weryfikację / porównanie przeprowadza się dopiero po upływie czasu ekspozycji.
Wniosek
W ogólnym kontekście przechowywania danych w chmurze pojawia się pytanie, jak zapewnić integralność mechanizmów zatrzymywania i rozpraszania danych. W miarę jak archiwizacja i przechowywanie danych w chmurze zyskuje na znaczeniu, będzie rosło zapotrzebowanie na wydajne i bezpieczne DIP-y, które mogą sprostać zróżnicowanym potrzebom użytkowników. W tym miejscu należy również zauważyć, że klienci korzystający z chmury przechowują dane do różnych celów, od prostych kopii zapasowych po bazy danych online. W takim scenariuszu opracowywane DIPy powinny być wystarczająco solidne, aby zapewnić dowód integralności wszystkim tym użytkownikom. Zapewnienie całkowitego zniszczenia danych, okres po użyciu ma kluczowe znaczenie dla użytkowników przechowujących wrażliwe lub poufne informacje na serwerze w chmurze. Oprócz stwierdzenia przez serwer, że całkowicie zniszczył dane, użytkownicy mogą wymagać dowodu zniszczenia danych. Taki dowód musi zapewnić właścicielowi danych, że wszelkie nadmiarowe kopie jego danych przechowywane na wielu serwerach pamięci masowej zostaną całkowicie zniszczone przed końcem okresu SLA. Opracowując takie rozwiązania do niszczenia danych, należy dokładnie rozważyć parametry wydajności i wydajności. Należy opracować takie rozwiązania, które pochłaniają minimalne zasoby obliczeniowe właściciela danych oraz serwera w chmurze. Kończymy ten rozdział, zwracając uwagę czytelnika na znaczenie skutecznej, wydajnej i bezpiecznej integralności danych, a także dowodów niszczenia danych dla użytkowników pamięci masowej w chmurze. Krótko mówiąc, w tym rozdziale przedstawiono różne aspekty DIP i mechanizmów niszczenia danych, a także wyzwania związane z istniejącymi mechanizmami i zakres przyszłych zmian.