Coraz powszechniejsze są przypadki nieoczekiwanego usunięcia danych w sytuacji awarii czy też celowego działania osób trzecich. Zwykły użytkownik najczęściej nie wie jak poradzić sobie z tym problemem. W artykule opiszemy przyczyny utraty danych, działania prewencyjne i odzyskiwanie danych, jako ostateczny środek w przypadku ich utraty.

Data dodania: 2008-10-10

Wyświetleń: 4009

Przedrukowań: 0

Głosy dodatnie: 2

Głosy ujemne: 0

WIEDZA

2 Ocena

Licencja: Creative Commons

Z problemem utraty dostępu do danych borykali się już starożytni, od kiedy wynaleziono pismo. Gliniane tabliczki oraz w późniejszym czasie papirus nie były idealnym materiałem na przechowywanie zapisanych na nich informacji. Podobnie jak i dzisiejsze nośniki cyfrowe były one narażone na wiele destrukcyjnych czynników (takich jak upływ czasu, ogień czy kradzież), mogących je trwale uszkodzić i uniemożliwić odczyt zawartych na nich danych.

W dzisiejszych czasach, w dobie gigantycznego rozwoju masowego przetwarzania informacji cyfrowych szerszym zagadnieniem jest problem ochrony danych; gdzie oprócz sytuacji w której nastąpiła utrata dostępu do informacji występuje inne zagrożenie - a mianowicie przedostanie się danych bez naszej wiedzy lub zgody do osób trzecich - często ma to postać pospolitej kradzieży, wyłudzenia czy włamania. Jednakże tym kontekstem nie będziemy się aktualnie zajmować i skupimy się w skrócie na problemie zabezpieczenia się przed fizycznym lub logicznym aspektem utraty danych (np. awarii nośnika).

Na początku należy stwierdzić, że w teorii nie występują rozwiązania dające nam 100% bezpieczeństwa – każda technologia może ulec awarii pozbawiając nas dostępu do danych. Natomiast w praktyce stosuje się dwa rozwiązania:

1. układy zmniejszające do możliwego minimum szansę na utratę danych (macierze, zabezpieczenia przeciwprzepięciowe, zasilacze awaryjne, itp.)

2. dywersyfikacja źródeł danych – czyli po prostu systematyczne wykonywanie ich kopii.

W znakomitej większości przypadków, tzn. takich które nie wymagają błyskawicznego dostępu do danych oraz zakładają określony margines czasowy w sensie ich aktualności idealnym rozwiązaniem jest robienie kopii zapasowych. W tego typu sytuacjach kopie zapasowe robimy w odstępach czasowych odpowiadających naszym potrzebom (raz na miesiąc, raz na tydzień czy nawet raz dziennie – jeżeli ktoś codziennie pracuje w sposób efektywny przez kilka godzin). W praktyce jest to idealne rozwiązanie dla tego typu osób lub firm – jednakże musi być przestrzeganych kilka żelaznych zasad:

- systematyczność – jej brak jest najczęstszym „grzechem” i przez to powodem utraty dostępu do
danych (dla przykładu: księgowy małej lub średniej firmy nie powinien zakończyć pracy zanim nie
wykona kopii danych z całego dnia lub tygodnia)
- każdorazowa weryfikacja wykonanych kopii – praktyka pokazuje, że samo wykonanie kopii nie
zawsze jest jednoznaczne z zamierzonym efektem (czasami się zdarza, że ludzie wykonują kopie na
zniszczonych dyskietkach lub taśmach, po czym okazuje się że krytyczne dane nie są już nagrywane
na ww. nośniki od np. kilku miesięcy).
- maksymalna dywersyfikacja źródeł kopii pod względem rodzaju nośnika i jego umiejscowienia –
zrobienie kopii danych w obrębie jednego np. komputera czy nośnika (inny katalog, inna partycja,
drugi dysk) w praktyce nie powoduje znaczącego zwiększenia poziomu bezpieczeństwa. W wypadku
awarii np. zasilacza uszkodzeniu mogą ulec wszystkie elementy wewnątrz komputera. Przyjmuje się,
że idealnym rozwiązaniem jest posiadane trzech źródeł danych nie powiązanych ze sobą w
jakikolwiek sposób i przechowywanych oddzielnie np. źródłowy dysk twardy, płyta CD/DVD oraz
np. pamięć wymienna (PenDrive). W takim układzie ryzyko utraty krytycznych danych w praktyce
spada do zera.

Układy zmniejszające szanse na wystąpienie awarii (np. macierze, układy klastrowe w sieci) stosowane są głównie przez duże firmy gdzie przetwarzane są jednocześnie bardzo duże ilości danych oraz nieakceptowana jest przerwa w dostępie do nich (banki, korporacje, giełdy, duże firmy produkcyjne itp.) W tego typu rozwiązaniach stosuje się „multibackup online” (dane są archiwizowane na w na bieżąco czasie rzeczywistym) i jednocześnie w wielu miejscach. Jednakże takie rozwiązania są często bardzo kosztowne (przeciętnie jest to kilkadziesiąt tyś. PLN – w ekstremalnych przypadkach np. Giełda Papierów Wartościowych posiada system wart nawet do kilkunastu mln PLN) i muszą mieć swoje uzasadnienie ekonomiczne w wypadku wystąpienia potencjalnej awarii.

Jeżeli już jednak się zdarzy, że z jakiejkolwiek przyczyny utracimy dostęp do danych i co gorsza nie posiadamy kopii nie należy załamywać rąk. W większości tego typu przypadków dane można odzyskać pod warunkiem przestrzeganiu kilku żelaznych zasad:

- nie należy wpadać w panikę – powoduje ona często, że zaczynamy wykonywać pewne
nieprzemyślane kroki, które niestety w większości przypadków znacznie utrudnią lub wręcz
uniemożliwią dotarcie do utraconych danych.

- należy zrobić rachunek strat i zysków – jeżeli dane są zbyt cenne abyśmy mogli pozwolić sobie
na ich utratę nie należy podejmować jakichkolwiek (!!!) samodzielnych działań lub zlecać tej
pracy innym osobom tzw. „złotym rączkom” czy też innym domorosłym informatykom.
Statystyki pokazują, że działalność takich osób w prawie 70% przypadków doprowadza do
nieodwracalnego zniszczenia danych. W takich sytuacjach należy się zgłosić do renomowanych
firm w tym zakresie. Koszty odzyskiwania danych będą oscylować w granicach od kilkuset PLN
do kilku tyś. PLN.

Jeżeli już z jakiegoś powodu zdecydujemy się na samodzielną próbę dotarcia do utraconych danych (brak funduszy lub dane nie są warte aż takiej kwoty) należy pamiętać o kilku podstawowych zasadach:

- musimy dotrzeć do źródła problemu – tzn. postarać się odpowiedzieć co się stało – tylko wtedy
możemy postawić trafną diagnozę co należy zrobić aby odzyskać dane,
- należy pamiętać, że jakakolwiek modyfikacja zawartości dysku może doprowadzić do
zniszczenia danych (prosty przykład: usunięcie danych, założenie nowej partycji lub format
dysku nie niszczą w sposób nieodwracalny (fizyczny) danych – dane zostają zniszczone dopiero
w procesie ich ponownego nadpisania),
- eksperymentowanie z wymianą elektroniki dysku jest procesem obarczonym dużym stopniem
ryzyka – większość producentów nie podaje oznaczeń umożliwiających bezbłędną identyfikację
dysku jeżeli chodzi o wersję biosu czy też układ podlinkowania biosu lub układu głowic –
natomiast zastosowanie błędnej elektroniki może doprowadzić w krańcowych przypadkach do
nieodwracalnego uszkodzenia struktury serwisowej dysku.
- powyższe wskazówki są skuteczne w przypadku utraty dostępu do danych z przyczyn
logicznych; w sytuacjach gdy występuje uszkodzenie mechaniczne nośnika lub uszkodzenie
strefy serwisowej w praktyce jesteśmy bezradni – nawet niewinne otwarcie dysku (oprócz
warunków laboratoryjnych) lub manipulacja w obszarze strefy serwisowej (bez odpowiedniej
wiedzy i narzędzi) w praktyce powoduje nieodwracalną utratę danych.

Licencja: Creative Commons
2 Ocena