Rosnąca ilość danych powoduje nie tylko ból głowy, ale również zarządzanie, koszty i lokalizacje pamięci wymagają niezbędnej uwagi. Ponadto nie wszystkie dane są takie same. Niektóre dane są stale przeglądane, a inne tylko raz, a czasem wcale. Wpływa to na całe środowisko IT organizacji.

Szpitale są przykładem organizacji, które mają do czynienia z ogromną ilością danych, które muszą być przechowywane przez długi czas. Wszystkie skany medyczne i dokumentacja szybko skutkują setkami terabajtów danych, które muszą pozostać dostępne tak długo, jak długo żyje pacjent. Byłoby nadal możliwe do zarządzania, gdyby te ilości danych pozostały mniej więcej stałe. Jednak rzeczywistość jest trudniejsza do zarządzania.

Dane wtórne są wyzwaniem

Nieprzewidywalność danych tam, gdzie naprawdę pojawiają się wyzwania. Według firmy analitycznej Gartner ilość danych wzrośnie o nie mniej niż 800 procent w ciągu najbliższych pięciu lat. Szpitale z trudem mogą to przewidzieć, kontynuując zakup dodatkowej pojemności. Tego typu organizacje muszą przyjąć inne podejście. Kluczem do tego jest następujący odsetek, o którym wspomina Gartner: 80 procent wzrostu danych to tak zwane dane nieustrukturyzowane. To dane, które nie znajdują się w aktywnej bazie danych. Pomyśl o osobnych plikach, kopiach zapasowych, archiwach, dziennikach, plikach multimedialnych, plikach dla środowisk testowych i analiz. Są to dane, które z jednej strony nie muszą być bezpośrednio konsultowane, az drugiej strony nie mają najwyższych wymagań SLA. Dlatego nazywa się to również danymi wtórnymi.

Dostępność, możliwość wyszukiwania i indeksowanie są najważniejszymi tematami dobrego wykorzystania wartości danych wtórnych. Ponadto dane muszą być bezpiecznie przechowywane, przy możliwie najniższych kosztach. Nie powinno to jednak odbywać się kosztem wydajności środowiska. Na przykład kopie zapasowe można ustawić wcześniej. Ale bez inteligentnego oprogramowania, które określa okno kopii zapasowej, obciążenia szczytowe szybko pojawiają się w najgorszych chwilach, jakie można sobie wyobrazić, powodując pogorszenie wydajności. Co więcej, zarządzanie wszystkimi różnymi zasobami pamięci i lokalizacjami w organizacji szybko staje się koszmarem.

Koszty ograniczonych korzyści

Dane wtórne są zatem (względnie) drogie w porównaniu z danymi pierwotnymi w porównaniu do ich celu. Nieprawidłowe lub nieodpowiednie zarządzanie tworzy labirynt danych w różnych lokalizacjach z wieloma kopiami w infrastrukturze. Dane wtórne zajmują miejsce na skraju urządzeń lub drogich rozwiązań SAN, które w rzeczywistości są przeznaczone dla danych pierwotnych. W rezultacie dane znajdują się we wszelkiego rodzaju lokalizacjach centrów danych i lokalizacji w chmurze oraz poza nimi. Utrudnia to również znalezienie tych informacji. Poszukiwanie takich danych kosztuje zatem więcej czasu, zasobów, a tym samym pieniędzy. Jednocześnie nie można usunąć danych wtórnych. Jako duża organizacja, w jaki sposób możesz skutecznie organizować zarządzanie danymi?

Sprzęt blisko siebie i inteligentne oprogramowanie

Organizacje, które borykają się z zarządzaniem danymi, zwykle mają odpowiednie możliwości. W takim przypadku chodzi o to, jak efektywnie wykorzystują tę pojemność. Celem jest efektywne projektowanie bez wąskich gardeł. Potrzebne jest oprogramowanie, które koordynuje wszystkie przepływy danych. W rezultacie sprzęt i oprogramowanie muszą ze sobą idealnie współpracować, aby osiągnąć jak największy zysk. Konkluzją jest szybkie użycie hiperkonwergentnego rozwiązania.

Krótko mówiąc, hiperkonwergencja oznacza bezproblemową integrację pamięci, obliczeń i ewentualnie innych komponentów w jednym centralnym rozwiązaniu z jednym interfejsem zarządzania. Minimalizuje to wzajemne linie komunikacyjne między tymi elementami. Ponadto powiązane oprogramowanie jest w pełni dostosowane do tego środowiska IT, co zapewnia większą kontrolę przy minimalnym zarządzaniu. Co więcej, pojemność można łatwo zwiększyć.

SDS stwarza również możliwości

W przypadku różnych środowisk pamięci, pamięć definiowana programowo (SDS) może również zapewnić znaczną poprawę i zapewnić dobrą interoperacyjność z chmurą. Na przykład może współpracować ze specjalnymi systemami plików, które zostały opracowane w celu organizowania nieustrukturyzowanych danych. Na przykład Cohesity DataPlatform jest oparty na rozproszonym systemie plików SpanFS z wbudowaną deduplikacją dla całego środowiska i bezpośrednią integracją ze środowiskiem chmurowym. Dobre rozwiązania programowe są również bardzo elastyczne. Możesz zainstalować je na urządzeniach do własnego środowiska, ale możesz także użyć ich jako „tylko oprogramowania” i wdrożyć je w środowiskach zwirtualizowanych lub w chmurze.

Środowisko rośnie proporcjonalnie do wzrostu danych.
Szacunki Gartnera opierają się na nadchodzących pięciu latach. Ale wykładnicza eksplozja danych trwa nawet po tym. W tradycyjnym środowisku, którego nie można skalować. W końcu jest zbyt wiele ograniczeń i wszystko trzeba przerobić przy wysokich kosztach. To sprawia, że ​​podejście programowe jest bardziej pożądane, być może w połączeniu z infrastrukturą hiperkonwergentną, gdy niezbędna jest wydajność. Dobrze zaprojektowane środowiska pamięci masowej można następnie skutecznie skalować, aby nadążać za wzrostem ilości danych, zwłaszcza gdy stosowane jest inteligentne rozwiązanie do archiwizacji. Przy odpowiednim podejściu można szybko uzyskać oszczędności w wysokości 40 procent lub więcej na kosztach inwestycji.

Stwórz porządek w chaosie

W nadchodzących latach eksplozja ilości danych zmusi wszelkiego rodzaju organizacje do znalezienia elastycznego rozwiązania pamięci masowej. Odpowiednie rozwiązania hiperkonwergentne i SDS zapewniają jednak wgląd w rosnącą ilość wtórnych danych i zarządzają nimi wiele razy wydajniej. Ma to kluczowe znaczenie dla działów IT, które chcą poradzić sobie z eksplozjami dużych danych.

Dovilo z przyjemnością myśli wraz z Tobą o tym, jak optymalnie zarządzać danymi wtórnymi i stworzyć idealną równowagę między wydajnością, kosztami i dostępnością. Skontaktuj się z nami, aby omówić opcje.