Veracomp.pl  »  O Firmie  »  Centrum Prasowe    Veracomp w mediach

O FIRMIE

Reseller News: Trendy na rynku serwerów i pamięci masowych

Dane czy informacje? Co w tym momencie staje się ważniejsze? Z pewnością i jedno i drugie jest istotne, bez danych nie mamy informacji, a bez informacji ciężko podejmować właściwe wnioski.

(autor: Mirosław Chełmecki, Dyrektor Działu Serwerów i Pamięci Masowych, Veracomp)

W 2016 r. będziemy obserwować zarówno konieczność szybszego dostępu do danych, jak i wydajniejszego ich przetwarzania w celu uzyskania jeszcze dokładniejszych i precyzyjnych informacji. Przed administratorami pojawi się potrzeba właściwego ich zabezpieczania, przechowywania i archiwizowania, a w konsekwencji konieczność sięgania po nowoczesne urządzenia i rozwiązania technologiczne.

Producenci, wychodząc naprzeciw obecnym oczekiwaniom rynku, przygotowali szereg propozycji, które z pewnością będą cieszyć się zainteresowaniem w najbliższym czasie.

Przełomowym momentem może stać się pojawienie od dawna zapowiadanej przez Hewlett Packard Enterprise architektury serwerów The Machine. Wykorzystanie memorystorów, połączeń fotonicznych oraz najnowszych technologicznych i opatentowanych „nowinek” ma całkowicie zmienić rynek serwerowy.

Do tego momentu używać będziemy „wszechobecnej” wirtualizacji zasobów, pojawią się nowe, jeszcze wydajniejsze procesory zapowiadane przez Intela i innych producentów oraz zdecydowanie częściej słyszeć będziemy o software defined servers. Nieprzerwanie obserwować będziemy rozwój infrastruktury chmurowej z zastosowaniem rozwiązań OpenStack czy BigData z wykorzystaniem Hadoopa.

Konieczność jeszcze lepszego dostarczania i wirtualizowania aplikacji zmusi nas do częstszego posługiwania się pojęciami takimi jak dockery i kontenery, a rozwiązania oparte o Open Source będą przedmiotem rozmów w wielu przedsiębiorstwach chcących zoptymalizować koszty utrzymania IT.

W rozwiązaniach storage też będzie się sporo działo. W sieciach pamięci masowych w dalszym ciągu będziemy obserwować konfrontację między Ethernet, Fibre Channel i InfiniBand. Powszechne staną się przełączniki i karty FC 16 Gb/s, a gdzieniegdzie rozważne będą urządzenia 32 Gb/s.

Ethernet migrował będzie do prędkości 25 GbE, następnie spodziewać się można przyspieszenia prac nad standardem single-pin 25 GbE, który łatwo będzie rozszerzalny do 50 GbE i kolejnych. Standard 10 GbE migrował będzie do 40 GbE, jednak ze względu na konieczność stosowania grubszych kabli przewiduje się, że rynek chętniej zaadoptuje 25 GbE. InfiniBand mający główne zastosowania w HPC i Big Data, będzie działał z prędkością 56 Gb/s z trendem migracji do 100 Gb.

Modyfikacja sieci storage napędzana będzie upowszechnieniem rozwiązań typu all-flash, które wymagają bardziej wydajnych połączeń.

Ważnym trendem w 2016 r. z pewnością będą rozwiązania obiektowe storage. Technologia ta pozwala na całkowicie inne podejście do zapisywania i zarządzania danymi, dzięki którym dostajemy zdecydowane lepsze, wydajniejsze, a co za tym idzie i tańsze możliwości zarządzenia i administracji.

Rozwój storage obiektowego oraz popularyzacja rozwiązań chmurowych, backupu do chmury oraz pojawienie się dysków twardych o coraz większej pojemności (6 TB, 8 TB i większe) i konieczność budowania potężnych systemów przechowujących petabajty danych uświadomią nam niewydolność i niepraktyczność konwencjonalnych systemów RAID. W celu zapewnienia bezpieczeństwa danych w systemach z dyskami dużej pojemności wykorzystywane zaczną być urządzenia z nowym systemem erasure coding. Standardowy systemy RAID w wypadku awarii dużego dysku odtwarzałby dane przez długi okres czasu. Erasure coding wykorzystuje specjalne algorytmy matematyczne, dzieli dane na malutkie fragmenty i umieszcza w różnych częściach macierzy dyskowej. W procesie dzielenia dodawane są elementy zabezpieczające, które w wypadku awarii pozwalają w efektywny sposób je odzyskać. Umożliwia to szybszą odbudowę danych, jak i daje możliwość ich odzyskania w wypadku równoczesnej awarii więcej niż jednego dysku.

Warto już teraz spojrzeć także na copy data management. Zarządzanie wieloma kopiami takich samych danych z wielu urządzeń staje się bardzo trudne i kosztowne. CDM używa tylko jednego obrazu (klonu) danych dla backupu, archiwizacji i innych na nich operacji. Badania IDC przewidują, że wykonywanie, zarządzanie i administrowanie kopiami zapasowymi danych kosztować będzie przedsiębiorstwa 51 miliardów dolarów do 2018 r. Wszelkie usprawnienia i optymalizacje w tym zakresie mogą przynieść ogromne oszczędności.

To tylko niektóre z nowych technologii, jakie w tym roku będą cieszyć się zainteresowaniem. Należy pamiętać, że w związku z dużym wzrostem wszelkich danych inne urządzenia pamięci masowych, takie jak macierze dyskowe, systemy backupu i recovery, również będą cieszyć się zainteresowaniem klientów końcowych.

Różnorodność potrzeb biznesowych oraz konieczność wyboru najbardziej optymalnego rozwiązania do ich realizacji, postawi firmy przed trudnym wyborem. Pojawienie się wspomnianych wyżej technologii daje klientom końcowym możliwość budowania coraz wydajniejszej i optymalnej kosztowo infrastruktury IT wspierającej ich działalność biznesową. Istotne jest jednak, aby klienci końcowi do współpracy wybierali integratorów posiadających wiedzę i umiejętności w implementowaniu najnowszych rozwiązań. Jedynie wtedy będą mieć pewność, iż zakupiony sprzęt jest optymalnie skonfigurowany, a w wypadku jakichkolwiek wątpliwości mogą liczyć na doradztwo kompetentnych ludzi.

Z kolei integratorzy, którzy będą posiadali wiedzę i umiejętności implementacji najnowszych rozwiązań osiągną przewagę nad konkurentami. Specjalizacja w rozwiązaniach, uczestnictwo w programach partnerskich producentów na odpowiednim poziomie, dają im możliwości uzyskania dodatkowych rabatów wynikających z programów partnerskich oraz możliwość osiągani korzyści finansowych na sprzedaży własnych usług implementacji i utrzymania infrastruktury.

Fragmenty wypowiedzi ukazały się w magazynie Reseller News, nr 1-2/2016

Opublikowano