Komunikat o błędzie będzie nadal wyświetlany podczas próby użycia urządzenia pamięci masowej USB do momentu usunięcia i ponownego podłączenia urządzenia lub ponownego uruchomienia komputera. Ten problem może wystąpić w przypadku dowolnego urządzenia pamięci masowej USB, takiego jak dyski, dyski twarde lub dyski CD-ROM. Przyczyna Firmy potrzebują rozwiązania zapewniającego niezawodne kopie zapasowe i zapobiegające uszkodzeniu plików. Nowej generacji system plików Btrfs zapisuje dwie koopie krytycznych metadanych na wolumenie, zapewniając wysoki poziom integralności danych, a jednocześnie wykorzystując elastyczne, efektywne narzędzia do ochrony i przywracania danych. Z kolei ostatnia nowość w interfejsach, czyli coraz lepiej znane wszystkim NVMe bazujące na szynie PCIe 3.0, może przesłać nawet 3500 MB na sekundę. Warto nadmienić, że obecnie dostępne są w sprzedaży dyski NVMe bazujące na najnowszej technologii PCIe 4.0. Dyski te mają ponadprzeciętne wartości odczytu i zapisu. Największe pod względem pojemności, a zarazem wymiarów są dyski zewnętrzne. Te najbardziej popularne mają wymiary od 2,5” do 3,5” – podstawową różnicą między nimi jest sposób zasilania – te większe wymagają zasilania sieciowego, natomiast mniejsze wystarczy podpiąć do urządzenia bezpośrednio przez kabel USB. Definicja dodatkowej pamięci masowej. Co to jest pamięć dodatkowa? pamięć wtórna jest nośnikiem do przechowywania danych tak długo, jak to możliwe, dopóki dany plik nie będzie już potrzebny użytkownikowi. Zawarte w tym nośniku, niektóre z nich to HDD, dysk flash, SSD, DVD, CD, dyskietka i karta SD. Test nośników SSD o pojemności 240–275 GB przygotowaliśmy z myślą o osobach, które zastanawiają się nad zakupem swojej pierwszej szybkiej pamięci masowej. Jednak także ci, którzy . W centrach danych wciąż jest miejsce zarówno dla napędów taśmowych, jak i pamięci flash. Nic nie wskazuje na to, że w najbliższym czasie nastąpią jakieś znaczące przetasowania. Segment pamięci masowych przeznaczonych dla klientów korporacyjnych był dość długo skostniały i niewiele się na nim działo. Jednak ostatnie lata przyniosły spore ożywienie. Z jednej strony jest to zasługa młodych graczy próbujących zmienić status quo na rynku, zaś z drugiej, weteranów starających się przystosować do nowych realiów rynkowych i wymagań klientów. Jak wynika z danych IDC zapotrzebowanie biznesu na pamięci masowe rośnie o 30 proc rocznie., a firmowe budżety na infrastrukturę maksymalnie o 15 proc. W rezultacie organizacje muszą umiejętnie łączyć rozmaite rozwiązania, począwszy od bibliotek taśmowych, poprzez systemy NAS, macierze SAN, aż po naszpikowane nośnikami NVMe serwery. Lighgtbits stawia na NVMe Startup Lightbits pozyskał w czerwcu bieżącego roku od funduszy venture capital 42 miliony dolarów. To niezła suma, biorąc pod uwagę fakt, iż inwestorzy ostatnio mniej przychylnie patrzą na młodych graczy. Środki posłużą na dalszy rozwój systemu pamięci masowej bazującej na nośnikach NVMe. Startup działa od 2016 roku i łącznegozebrał ponad 100 milionów dolarów, do czego przyczynili się między innymi Atreides Management, Celesta, Cisco Investments, Dell Technologies Capital, Micron Technology. Na uwagę zasługuje fakt, iż założyciele startupu opracowali standard NVMe/TCP, który pod koniec 2018 roku został ratyfikowany przez konsorcjum NVM Express. Lightbits podczas projektowania autorskiego system wzorował się na infrastrukturze IT używanej przez Amazona, Google’a czy Facebooka. Jednym z jej największych walorówy jest łatwe skalowanie powierzchni dyskowej, niezależne od mocy obliczeniowej. Rozwiązanie Lightbits to zdefiniowany programowo system pamięć masowej wykorzystujący serwer x86 z nośnikami NVMe, przeznaczony do pracy w dowolnym środowisku chmurowym, w tym także w zastosowaniach multi-cloud. Podstawowa konfiguracja zaczyna się od trzech serwerów, kolejne jednostki można dodawać w dowolnym momencie bez zakłócania pracy całego sytemu, a klaster jest dynamicznie równoważony. Podobnie jest w przypadku, kiedy użytkownik dołącza nowe nośniki NVMe. – Całkowity koszt posiadania naszego produktu jest o 80 proc. niższy w porównaniu z DAS, Software Defined Storage czy macierzami SAN. To przede wszystkim zasługa inteligentnego systemu zarządzania pamięcią flash pozwalającego nawet dwudziestokrotnie wydłużyć żywotność nośników QLC, a także redukcji danych czy braku hiperwizorów w węzłach storage – zapewnia Kam Eshghi, CSO Lightbits. Startup swoją przewagę nad konkurentami upatruje w zastosowaniu protokołu NVMe-over-TCP, który gwarantuje niskie opóźnienia i nie wymaga inwestycji w nowy sprzęt. Taśmy z Kolorado Spectra Logic oraz Quantum są producentami utożsamianymi z taśmami. Druga z wymienionych firm obok HPE oraz IBM, kontroluje konsorcjum LTO, kierujące rozwojem oraz zarządzaniem, licencjonowaniem i certyfikacją najbardziej popularnego obecnie nośnika taśmowego. Obaj producenci mają swoje siedziby w stanie Kolorado, Spectra Logic w Boulder, zaś Quantum w Englewood. Choć taśmę już co najmniej od kilku lat odsyła się do lamusa, nadal znajduje ona szerokie zastosowania, a w ostatnim czasie wręcz przeżywa renesans. Według badań IDC, dostawy napędów taśmowych, bibliotek taśmowych i wirtualnych bibliotek taśmowych wzrosły w 2021 roku o 10,5 proc. w ujęciu rocznym. Łączna (skompresowana) pojemność sprzedanych taśm LTO. W 2021 roku wyniosła około 150 eksabajtów, dla porównania rok wcześniej nieznacznie przekroczyła 100 eksabajtów Phil Goodwin, wiceprezes ds. badań w IDC uważa, że jednym z głównych czynników wzrostu sprzedaży jest skuteczna ochrona przed złośliwym oprogramowaniem ransomware. Spectra Logic w raporcie „Data Storage Outlook 2022” zwraca uwagę na standard LTO-9 który w najbliższym czasie powinien stymulować popyt na taśmy. Dziewiąta generacja oferuje natywną pojemność 18 TB na kasetę, co stanowi 50 proc. wzrost w porównaniu z poprzednią wersją. Duże zainteresowania napędami taśmowymi przejawiają firmy, które przechowują duże ilości danych i chcą uniknąć miesięcznych opłat za składowanie ich w chmurze. Zresztą najwięksi providerzy również korzystają z bibliotek taśmowych. Eric Bassier, Senior Director, Product and Technical Marketing w Quantum, przyznaje, że jego firma już od kilku lat dostarcza biblioteki taśmowe z pięciu największych hiperskalerów. –Mamy ponad 40 eksabajtów pojemności wdrożonych w setkach centrów danych. Odpowiada to zarządzaniu nieco ponad trzema milionami taśm LTO we wdrożonych przez nas systemach – mówi Eric Bassier. Nie tylko taśmy Czołowi dostawcy bibliotek taśmowych, cały czas rozwijają swoją ofertę, dopasowując ją do potrzeb różnych grup odbiorców. W ostatnim czasie dużo dzieje się w Quantum. Producent na przestrzeni ostatnich dwóch lat, dokonał pięciu akwizycji (ActiveScale, Atavium, Sqaurebox, Pivot3 oraz EnCloudEn). W rezultacie jego portfolio rozszerzyło się o produkty do indeksacji i analizy danych, rozwiązania HCI i specjalistyczne systemy do rejestracji monitoringu. – Musieliśmy przyspieszyć tempo innowacji i przejęliśmy kilka firm, stając się tym bardziej atrakcyjnym dostawcą. Od lat oferowaliśmy rozwiązania dla mediów oraz rozrywki. Jednak cały czas rozszerzamy swoje pole działania o branżę motoryzacyjną, farmaceutyczną czy placówki naukowe prowadzące badania nad genomem. Poza tym przeszliśmy od sprzedaży produktów punktowych do łączenia ich w kompleksową architekturę – tłumaczy Jamie Lerner, CEO Quantum. Obecnie około 90 proc. zasobów cyfrowych wykorzystywanych przez organizacje stanowią dane niestrukturyzowane. Jak wynika z badania przeprowadzonego przez ESG aż 89 proc. respondentów uważa, że automatyczne warstwy pamięci masowych pozwalają im zaoszczędzić znaczne środki finansowe. Natomiast 88 proc. badanych twierdzi, iż zatrzymanie większej ilości danych stwarza im dodatkowe możliwości biznesowe. Jak widać firmy nie zamierzają się ograniczać do stosowania jednego rodzaju nośników i rozumieją potrzebę ich dywersyfikacji. Według IDC aż 60 proc. danych zalicza się do kategorii „zimnych”, czyli nieaktywnych rekordów, po które organizacje sięgają sporadycznie. Natomiast tylko 10 proc. kwalifikuje się do danych „gorących”, a 30 proc. „ciepłych”. Quantum oraz Spectra Logic koncentrują się na walce o największy kawałek tortu. Jamie Lerner nie ukrywa, iż pozyskanie nowych firm i poszerzenie portfolio znacznie ułatwiło mu rywalizację z konkurentami. – Nasz sprzęt jest od lat używany przez specjalistów od mediów i rozrywki pracujących dla baseballowego klubu Golden Warriors. Ale niedawno zainstalowaliśmy tam nasz system do nadzoru wideo oraz analityki. Łączymy w ten sposób dwa światy. Duże znaczenie miał fakt, iż ludzie od mediów i rozrywki zarekomendowali nas fachowcom od bezpieczeństwa – tłumaczy Jamie Lerner. Portfolio Spectra Logic obejmuje platformy pamięci masowej oparte na oprogramowaniu, składające się z dysków, obiektowej pamięci masowej i taśm, a także rozwiązania do zarządzania danymi w środowiskach chmurowych. Rok temu producent zaprezentowało oprogramowanie Vail, które centralizuje zarządzanie danymi w architekturze lokalnej i wielochmurowej, umożliwiając dostęp do danych na żądanie. Są one umieszczane i przechowywane w jednej globalnej przestrzeni nazw. Z punktu widzenia użytkownika nie ma znaczenia czy pliki znajdują się na dysku twardym, pamięci NAND flash czy taśmie. Firma rozwija też Black Pearl – urządzenie instalowane przed bibliotekami taśmowymi, dzięki czemu użytkownicy mogą korzystać z nich za pomocą protokołu obiektowego, analogicznie jak w przypadku danych przechowywanych w chmurach publicznych. – Organizacje wytwarzają, udostępniają i chronią petabajty danych, zarówno lokalnie, jak i w chmurze. Zapewniamy im uniwersalny dostęp i rozmieszczenie danych, oferując płynne połączenie z chmurami publicznymi różnych usługodawców. Dzięki temu organizacje mogą skupić się na wykorzystaniu danych przy jednoczesnym spełnieniu kryteriów korporacyjnych i obniżeniu TCO – tłumaczy David Feller, Vice President, Product Management & Solutions Engineer w Spectra Logic. Warto dodać, iż firma, która istnieje od 1979 roku, współpracuje z przedstawicielami nowej fali, a na liście jej partnerów technologicznych znajdują się między innymi Cohesity, Komprise Pure Storage czy Rubrik. Czas na autonomiczny backup Działy IT mają coraz większe kłopoty z ochroną danych, co dzieje się z kilku powodów. Jednym z nich jest lawinowy przyrost cyfrowych informacji. Jednakże nie jest to nowe zjawisko, a co bardziej roztropni CIO zdążyli się do niego przyzwyczaić i jakoś sobie z nim radzą. Dużo większymi problemami wydają się być rosnącą liczba aplikacji, rozprzestrzenianie się się ransomware’u czy konieczność zarządzania danymi znajdującymi się w lokalnych centrach danych i u zewnętrzych usługodawców. Duża odpowiedzialność spoczywa nie tylko na specjalistach od bezpieczeństwa, ale również na barkach dostawców do backupu i DR. O ile nowi gracze wysuwają śmiałe, czasami rewolucyjne koncepcje, o tyle vendorzy z długim stażem na rynku, tacy jak Veritas, podchodzą do tematu z większym spokojem. Wynika to z doświadczania, a także potrzeby zaspokojenia potrzeb mocno zróżnicowanej klienteli. Z produktów Veritas korzysta około 80 tysięcy firmy, w tym 437 z listy Fortunę 500. Według Gartnera firma kontroluje 15 proc. rynku systemów do ochrony danych przeznaczonych dla użytkowników korporacyjnych. Nowa strategia Veritasa bazuje na pięciu filarach: cyberbezpieczeństwie (głównym celem jest powstrzymanie ataków typu ransomware), ochronie danych w środowisku lokalnym oraz chmurach różnych usługodawców, upowszechnianiu modelu subskrypcyjnego, współpracy z providerami oraz partnerami technologicznymi i autonomicznym backupie. – Liczymy, że realizacja tego planu pozwoli nam zwiększać przychody w tempie 8-10 proc. rocznie, EBITDA wyniesie około 35 proc, zaś wskaźnik powracających klientów osiągnie poziom 80 proc. – mówi Lawrence Wong, Chief Strategy Officer w Veritas. Amerykański vendor szczególnie duże nadzieje pokłada w autonomicznym backupie. – Sama automatyzacja procesów związanych z ochroną danych jest konieczna, aczkolwiek to za mało. Zarządzanie danymi i ich ochrona powinny się odbywać w sposób niewidoczny i autonomiczny, ale bez poświęcania nadrzędnej kontroli człowieka – tłumaczy Doug Matthews SVP, Product Management w Veritas. Autonomia ma łączyć automatyzację ze sztuczną inteligencją i uczeniem maszynowym, dzięki czemu system ochrony danych może dostosowywać się do zmieniających się okoliczności i natychmiast reagować. Veritas planuje wprowadzić tę nowinkę w systemie NetBackup 10+. Pamięć masowa może być instalowana bezpośrednio w serwerach w postaci dysków tworzących tzw. system DAS (Direct Attached Storage), jako specjalizowany, dodatkowy serwer pamięci masowej NAS (Network Attached Storage) udostępniany przez sieć LAN lub WAN, albo też zestaw urządzeń pamięciowych wykorzystujących oddzielną dedykowaną sieć SAN (Storage Area Network). Tego rodzaju architektury są podstawą systemu pamięci w każdym systemie IT. Należy jednak zwrócić uwagę, że stopniowo rośnie też popularność pamięci masowych, oferowanych jako usługa świadczona w chmurze. W tym przypadku usługodawca buduje własny system pamięci, z zasady oparty na architekturze SAN, a następnie udostępnia pojemność zewnętrznym użytkownikom za pośrednictwem internetu lub dedykowanych łączy sieciowych. Budując własny system pamięci masowej, trzeba przede wszystkim znaleźć odpowiedź na pytanie: kiedy wystarczy skorzystać z pamięci DAS, a kiedy warto wdrożyć zewnętrzną pamięć NAS lub sieć SAN? Odpowiedź zależy od aplikacji oraz indywidualnych wymagań dotyczących wydajności i niezawodności systemu. Zobacz również:HPE zaprezentowało serwer nowej generacji HPE ProLiant RL300 Gen11 Należy również zwrócić uwagę, że rozwój technologii i coraz bardziej podobne funkcje różnych rozwiązań pamięci masowych - stopniowo zacierają granice między systemami NAS i SAN. Ponadto, już od kilku lat rozwijane są koncepcje sieci konwergentnych, które umożliwiają łączenie wszystkich urządzeń pracujących w systemie IT przy wykorzystaniu jednolitej infrastruktury sieciowej. Sieci konwergentne są uważane za technologię, która w niedalekiej przyszłości opanuje centra danych. Pamięci masowe w sieci Już w latach 80. ubiegłego wieku pojawiła się koncepcja NAS, jako urządzenia udostępniającego pamięć masową serwerom plików pracującym pod kontrolą NetWare lub Windows i obsługującym komputery klienckie w sieci typu klient-serwer. A pierwszym producentem, który opracował i wprowadził do sprzedaży pamięci NAS w formie urządzeń typu appliance, była firma NetApp (Network Appliance). Obecnie pamięci NAS są wykorzystywane przez miliony użytkowników do przechowywania systemów plików obsługujących aplikacje, takie jak Microsoft Exchange czy SQL Server. W porównaniu z wewnętrznymi, zainstalowanymi bezpośrednio w serwerze dyskami DAS, pamięci NAS mają wiele zalet. Jest to rozwiązanie bardziej uniwersalne, które z reguły oferuje większą skalowalność pojemności niż DAS, i umożliwia obsługę wielu aplikacji, serwerów i urządzeń klienckich. Natomiast u podstaw SAN leży idea, by oddzielić wymianę danych między pamięciami masowymi i serwerami - od ruchu obsługiwanego przez standardowe sieci LAN i WAN. Umożliwia to istotne zwiększenie wydajności takich aplikacji, jak: transakcyjne bazy danych, systemy ERP lub CRM. Jest to więc rozwiązanie stosowane w dużych lub średnich firmach. Oddzielenie serwerów aplikacyjnych od SAN i podłączenie ich do wielu urządzeń pamięci, przy wykorzystaniu dedykowanej sieci Fibre Channel, specjalnie zaprojektowanej do takich zastosowań, daje wiele korzyści. System taki może być łatwo skalowany, ale przede wszystkim ma wyższą wydajność i niezawodność w porównaniu z rozwiązaniami wykorzystującymi pamięci NAS. Zwolennicy rozwiązań SAN podkreślają, że w systemach obsługujących biznesowe aplikacje o znaczeniu krytycznym, w których wydajność jest parametrem kluczowym, zastosowanie pamięci NAS jest trudne do zaakceptowania. Z zasady bowiem, wykorzystanie sieci LAN do wymiany danych z pamięciami masowymi i jednocześnie obsługi ruchu generowanego przez serwery i urządzenia klienckie będzie powodować konflikty i negatywnie wpływać na wydajność aplikacji. Ale wielu użytkowników systemów NAS nie zgadza się z taką opinią, twierdząc, że w praktyce nigdy nie mieli z tym problemu i nie ma zasadniczych powodów, by pamięci NAS nie stosować do obsługi krytycznych aplikacji biznesowych. Dyskusje i spory między zwolennikami NAS i SAN mają często charakter ideologiczny, wynikający z przyzwyczajeń i doświadczeń użytkowników. A rozwój technologii powoduje, że zmienia się perspektywa spojrzenia na te systemy i wiele klasycznych argumentów traci na znaczeniu. W praktyce zarówno pamięci SAN, jak i NAS można czasami zalecić jako najlepsze rozwiązanie, pod warunkiem że spełniają wymagania konkretnej aplikacji. Wybór często nie jest jednak prosty i oczywisty. Dodatkowym problemem dla osób odpowiedzialnych za projektowanie systemu IT jest rosnąca oferta pamięci NAS z interfejsami iSCSI, które oferują funkcje typowe dla pamięci SAN. Dlatego osoby tworzące plany rozwoju architektury systemów pamięci masowej powinny dobrze rozumieć różnice techniczne oraz znać wady i zalety obu tych technologii. Klasyczna różnica między pamięciami NAS i SAN Chyba każdy, kto choć trochę miał do czynienia z pamięciami masowymi, jako podstawową różnicę między urządzeniami NAS i SAN wymieni zastosowanie systemu plików w NAS oraz bloków danych w SAN. Pamięci NAS, zależnie od wykorzystywanego systemu plików, z reguły oferują zestaw zaawansowanych funkcji, takich jak mechanizmy kontroli dostępu, indeksowanie plików itp. Ich system operacyjny pozwala na udostępnianie plików bezpośrednio urządzeniom klienckim podłączonym do sieci. podstawowa topologia systemu wykorzystującego pamięci NAS Natomiast w sieci SAN pamięć masowa może być współdzielona, ale jest widoczna jako dysk dostępny na poziomie bloków danych. Większość pamięci SAN wykorzystuje sieć Fibre Channel, czyli protokół specjalnie zaprojektowany do takich zastosowań. Wraz z popularyzacją standardów iSCSI i FCoE, które umożliwiają dostęp do pamięci dyskowych na poziomie bloków, ale przy wykorzystaniu protokołu TCP/IP lub sieci Ethernet, klasyczne różnice między NAS i SAN stają się coraz mniej wyraźne. Podstawowa topologia sieci SAN Choć generalnie wdrożenie systemu SAN jest znacznie bardziej skomplikowane niż pamięci NAS, to koncepcja architektury SAN jest prostsza i oparta na współdzieleniu danych na znacznie niższym, podstawowym poziomie. Polecamy: Pamięci masowe - poradnik kupującego Zapewnienie efektywną i zoptymalizowaną wydajność pamięci masowej dla środowisk wirtualnych może być trudne do osiągnięcia, ponieważ jest wiele elementów w stosie infrastruktury, które muszą ze sobą współgrać. Pamięć masową o optymalnej wydajności dla środowiska wirtualnego można dobrać przy pomocy zestawu wskaźników, które są wykorzystywane do pomiaru operacji wykonywanych w środowiskach wirtualnych. Wyróżniamy trzy kluczowe wskaźniki wydajności, które są wspólne dla wszystkich środowisk: opóźnienie (czas dostępu, czas reakcji), przepustowość (pasmo) i IOPS. Opóźnienie określa czas potrzebny do ukończenia jednej operacji I/O (wejścia wyjścia) i jest w istocie miarą tego, jak szybko pamięć masowa reaguje na zapytania odczytu lub zapisu danych. Mierzona wartość jest przedstawiana w milisekundach, obecnie ten parametr w najszybszych dyskach SSD, jakie są dostępne na rynku, jest na poziomie ułamków milisekund. W idealnym środowisku parametr opóźnienia byłby równy zero, co skutkowałoby tym, że operacje odczytu i zapisu na dyski twarde pamięci masowej nie miałyby wpływu na jej wydajność. Ponieważ fizycznie jest to nie możliwe to każda operacja I/O obarczona jest pewnym opóźnieniem. Największym wyzwaniem dla każdej pamięci masowej jest zminimalizowanie wartości opóźnienia, gdyż w większości przypadków w infrastrukturze IT to właśnie pamięć masowa jest tzw. wąskim gardłem. Mniejszy wskaźnik opóźnienia oznacza, krótszy czas oczekiwania na zakończenie operacji I/O a zatem szybsze wykonanie zadania. W środowisku wirtualnym parametr opóźnienia ma bezpośredni wpływ na prędkość działania maszyn wirtualnych (VM) i pulpitów dostępowych. Zmniejszenie opóźnienia wskazuje na lepsze wykorzystanie zasobów procesora i pamięci operacyjnej. W rezultacie w pamięciach masowych wdrażanych do środowisk wirtualnych implementuje się dyski SSD oraz możliwość zarządzania przepływem operacji I/O do macierzy dyskowej. Technologia pamięci flash najczęściej wykorzystywana jest przy sprzętowym, czy też programowym “caching-u”, którego celem jest zredukowanie wartości opóźnienia do jak najmniejszych. Przepustowość – Zdolność do przesłania ustalonej ilości danych w mierzonym czasie określa się mianem przepustowości lub pasma. Typowa przepustowość jest mierzona w jednostkach megabajt na sekundę (MBps). Sieciowe pamięci masowe i urządzenia dyskowe mogą być definiowane przez dwa rodzaje przepustowości – przepustowość stała i przepustowość szczytowa. Stała przepustowość to zdolność pamięci masowej do przesyłania danych ze stałą prędkością w długim okresie czasu. Szczytowa przepustowość wskazuje poziom jaki pamięć masowa jest w stanie osiągnąć, w krótkim okresie czasu. W środowiskach typu VDI (virtual desktop infrastructure) bardzo ważna jest szczytowa przepustowość, przykładowo kiedy mamy do czynienia z “boot storms” – jest to moment, w którym do system loguje się wielu użytkowników i w tym samym czasie uruchamiają swoje wirtualne maszyny. Taka sytuacja generuje ogromną ilość operacji I/O i jeżeli macierz nie jest w stanie efektywnie tym zarządzać to automatycznie wzrasta nam opóźnienie. Duża przepustowość ma istotne znaczenie także dla środowiska serwerów wirtualnych podczas gdy realizowane jest dynamiczne przenoszenie maszyn wirtualnych pomiędzy serwerami. Możliwość zmierzenia przepustowości i zrozumienie zapotrzebowania szczytowego jest krytyczne dla środowisk wirtualnych. IOPS (input output operations per second) – IOPS jest miarą liczby indywidualnych zapytań odczytu/zapisu jaką pamięć masowa jest w stanie obsłużyć w ciągu jednej sekundy. Liczba ta jest ściśle powiązana z przepustowością, ale się od niej różni. In many cases, vendors will use IOPS as a measure of the performance of their products, but these figures need to be considered alongside the size of data chunks being transferred in each operation. W wielu przypadkach, producenci sieciowych pamięci masowych korzystają z IOPS jako parametru wydajności, ale należy pamiętać, że przy doborze odpowiedniej jednostki należy rozważyć wielkość bloków danych jakie będzie musiała obsługiwać macierz. Przykładowo łatwiej jest przetwożyć wiele małych bloków o wielkości 4KB niż jeden duży o rozmiarze 1MB. Warto zwrócić też uwagę na to, że odczyt losowych danych jest bardziej czasochłonna niż ciągły zapis. Reasumując parametr IOPS musi być dokładnie osądzony pod kontem wielkości bloków przechowywanych na pamięci masowej oraz rodzaju operacji na nich wykonywanych. Zależność między opóźnieniem, przepustowością i IOPS Opóźnienie, IOPS i przepustowość są ściśle związane. Pamięć masowa, która będzie w stanie przetworzyć operacje I/O z małym opóźnieniem, będzie miała dużą wydajność IOPS. Liczba oblicza się z prostego wzoru 1/opóźnienie, więc jeżeli będzie na poziomie 3 milisekund (1/ to otrzymamy 333 IOPS. Pamięć masowa, która zapewni dużą liczbę IOPS dla dużych bloków danych będzie miała wysoką przepustowość, jej wartość oblicza się poprzez przemnożenie ilości IOPS przez wielkość I/O. Pamięci masowe zarządzają operacjami I/O równolegle lub współbieżnie, co daje im możliwość przetworzenia w tym samym czasie więcej niż jedną operację I/O. Współbieżność osiąga się przez doprowadzenie kilku niezależnych ścieżek do pamięci masowej i wykorzystaniu pamięci systemowej jako cache, w którym kolejkowane są transakcje. Ta metoda sprawia, że trzeba zastosować kolejny parametr pomiaru – długość kolejki (queue depth) – który opisuje ile zapytań I/O pamięć masowa jest w stanie obsłużyć jednocześnie. Pojedynczy dysk posiada parametr długości kolejki na poziomie jedno lub dwucyfrowej, podczas gdy duża korporacyjna macierz dyskowa długość kolejki będzie miała na poziomie dziesiątek lub setek cyfr na jeden LUB, na jeden port lub kombinację obu. Dzięki kolejkowaniu kilku zapytań razem pamięć masowa może zoptymalizować proces zapisu, tym samym redukując opóźnienie związane z przechowywaniem danych, jest to szczególnie skuteczne w przypadku dysków twardych, w ten sposób można znacznie zmniejszyć ruch głowicy. Profil obciążenia oraz gdzie dokonywać pomiaru Identyfikacja i zbieranie danych o poszczególnych wskaźnikach macierzy umożliwiają nam zrozumienie jaką wydajność daje nam dana pamięć masowa, ale wszystkie te informacje trzeba wykorzystać w kontekście profilu operacji I/O oraz gdzie pomiary zostały dokonane. A to dlatego, że każda aplikacja jest inna, co za tym idzie ma inne potrzeby. Przykładem może być VDI i wirtualny serwer, gdzie ruch jest wysoce zróżnicowany ze względu na rozproszenie aktywnych danych w całej objętości wolumenu przechowującego wirtualne dyski. VDI to w 80% odczyt danych więc małe opóźnienie dla operacji I/O daje zauważalne przyspieszenie. Miejsce pomiaru wskaźników jest także bardzo ważne, gdyż pomaga prawidłowo ocenić osiągi I/O na całej ścieżce transportu danych. W dzisiejszych czasach jesteśmy w stanie monitorować operację I/O od początku do końca, dzięki czemu jesteśmy w stanie zweryfikować na którym etapie procesowania występuje opóźnienie. Pomiaru możemy dokonywać w trzech wymiarach, bezpośrednio na pamięci masowej, przy pomocy hypervisor-a lub z poziomu samego hosta. Nie ma dobrych lub złych miejsce do pomiarów; każde daje perspektywy funkcjonowania systemu. Pomiary wykonane z poziomu pamięci masowej pokazują jak dobrze macierz radzi sobie z zewnętrznymi zapytaniami. Pomiary dokonane z poziomu hosta mogą przykładowo pokazać jak zawartość serwera ma wpływ na osiągi danego hosta, a pomiar przy pomocy hypervisor-a pokazuje efektywność sieci macierzy dyskowych. Oba najbardziej popularne hypervisory (vSphere ESXi i Hyper-V) pozwalają na wygenerowania dużego obciążenia w celu optymalizacji osiągów pamięci masowej. Storage DRS w przypadku vSphere, potrafi również na podstawie historycznych pomiarów opóźnień I/O podczas migracji VM zaproponować optymalne osiągi. Podczas gdy Intelligent Placement w Hyper-V dokonuje kalkulacji bazując na IOPS VM. Nie zapomnij o … Wszystko o czym pisaliśmy wyżej bazuje tylko na technologii, ale trzeba pamiętać, że często o wyborze odpowiedniej pamięci masowej decyduje także budżet jakim dysponujemy. W tym przypadku wskaźnikiem będzie PLN/GB, który mierzy koszt pojemności. Jednak wszyscy wiemy, że w przypadku rozwiązań z pamięcią flash współczynnik PLN/GB jest znacznie większy niż w przypadku zwykłych mechanicznych dysków, dlatego w przypadku wymagających aplikacji ten współczynnika warto zastąpić parametrem PLN/IOPS. Praktyka Wzorcowym przykładem jak producenci macierzy powinni prezentować powyższe wskaźniki jest firma Qsan Technology. Prezentują wszystkie parametry, które nas interesują przy doborze macierzy dyskowej do środowiska wirtualnego. Firma Qsan Technology przygotowała bardzo dokładne raporty wydajności dla każdej pamięci masowej dedykowanej do sieci SAN. W ich raportach zawarto informacje o ilości IOPS dla różnych wielkości bloków, nie tylko dla tych przy których macierz ma najlepszą wydajność, żeby ładnie wyglądało to marketingowo. To samo w przypadku wydajności, nie dość, że pokazano wyniki dla różnych wielkości bloków to również zaprezentowano wyniki z podziałem na profil obciążenia, tj. zapis oraz odczyt losowy i sekwencyjny. Żeby tego było mało pokazano jakie wyniki macierz osiągają przy włączonym i wyłączonym cache. Dla tych, którzy chcą zobaczyć jak wyglądają profesjonalne raporty poniżej linki do trzech najbardziej popularnych modeli: Qsan P400Q- S212, Qsan P600Q-S212, Qsan F600Q-S212 Dzięki takim raportom i przeczytaniu tego artykułu nie powinniście już mieć problemów z wyborem odpowiedniej sieciowej pamięci masowej. Jeżeli jednak nie wiecie ile IOPS potrzebujecie to zawsze możecie wypożyczyć macierz Qsan i sprawdzić we własnym środowisku czy spełni wasze wymagania. Podsumowanie Ze względu na losowe charakter środowiska wirtualnego, opóźnienie jest kluczowym wskaźnikiem, który należy brać pod uwagę podczas monitoringu osiągów pamięci masowych. Opóźnienie jest istotne zarówno gdy mamy jedną lub sto maszyn wirtualnych. W momencie, gdy po uwagę bierzemy pojemność pamięci masowej, żeby mieć możliwość obsługi dużej ilości maszyn wirtualnych to wtedy bardzo ważna rolę gra przepustowość. Wynika to z tego, że możliwość skalowania środowiska wirtualnego wymaga odpowiedniego potencjału przepustowości. Jak już wspomnieliśmy szczytowe obciążenie, w krótkich okresach czasu generowane przez VDI dla operacji odczytu i zapisu będzie sprawiać spore problemy. Z punktu widzenia hosta, IOPS jest parametrem, który najlepiej definiuje wydajność. Jest on także wykorzystywany zarówno w prywatnych, jak i wirtualnych infrastrukturach chmury. Pamięć masowa jest jednym z najważniejszych podzespołów, od której zależy nie tylko wydajność, ale w ogóle użyteczność komputera. Choć jeszcze do niedawna w naszych pecetach i laptopach głównie montowane były dyski HDD (Hard Disk Drive), to ich młodszy brat – SSD powoli zaczyna wypierać dyski talerzowe z powszechnego użycia. Według organizacji IDEMA Japan (dane za Digimates*), w 2016 roku produkcja HDD spadła o ponad 9%, natomiast firma analityczna TrendForce** spodziewa się, że w 2017 roku wzrost sprzedaży SSD może osiągnąć nawet 60%! Komponent ten, który jeszcze niedawno był elementem tylko urządzeń z wyższej półki, zaczyna masowo trafiać do komputerów. Nie bez powodu – Solid-state Drive to dysk któremu nie można odmówić zalet. Na początku warto zwrócić uwagę na samą budowę obu rodzajów napędów. Podstawowym elementem dysku HDD jest obracający się talerz lub zespół talerzy pokrytych cienką warstwą nośnika magnetycznego oraz głowice elektromagnetyczne. Ma on wiele delikatnych części mechanicznych, dlatego też wszelkie upadki czy drgania mogą powodować uszkodzenie i nieodwracalną utratę wszystkich danych. Dużo większą odporność na wstrząsy zapewnia dysk SSD, który przechowuje wszystkie dane w układach pamięci Flash. SSD zbudowany jest z pogrupowanych kilku lub kilkunastu kości NAND i wykorzystuje wyłącznie elektroniczne elementy. To szczególnie istotna cecha w przypadku przenośnych komputerów, które każdego dnia narażone są na wstrząsy. Brak części mechanicznych przekłada się również na bezgłośne działanie dysku SSD. Oprócz większej wytrzymałości, dyski SSD mają także wiele zalet praktycznych z punktu widzenia konstrukcji urządzeń przenośnych. Ich niepodważalną przewagą nad dyskami talerzowymi jest niska waga. Przyspiesz swój komputer Z reguły ulepszenia i unowocześnienia w technologiach sprowadzają się do wzrostu szybkości i wydajności. SSD jest szybszy, ponieważ nie wymaga przemieszczania głowic ani napędzania obrotów talerza tak jak w przypadku tradycyjnego dysku twardego. Ze względu na brak opóźnień mechanicznych dane z dysku SSD można uzyskać niemal natychmiast. Zwiększenie szybkości odczytu i zapisu danych wpływa na szybsze ładowanie wszelkich aplikacji i programów oraz skrócenie czasu rozruchu i wyłączenia systemu. Kolejną przewagą dysków SSD jest niższa temperatura pracy. Przekłada się to nie tylko na większe bezpieczeństwo danych, ale też na dłuższe działanie baterii komputera. Czy można jeszcze bardziej przyspieszyć dysk SSD? Okazuje się, że tak. Firma Samsung przełamała bariery stawiane przez standardowe ułożenie kości NAND. W styczniu br. została uruchomiona produkcja pierwszych na rynku nośników SSD wykorzystujących 64-warstwowe chipy V-NAND. Do rozwiązań tych należą produkty z wbudowaną pamięcią UFS, firmowe nośniki SSD oraz zewnętrzne karty pamięci. Pamięci flash 3D V-NAND produkowane są przy wykorzystaniu architektury wertykalnej umożliwiającej ich gęstsze rozmieszczenie, a przez to zwiększenie wydajności. 64-warstwowa, 256 Gb pamięć flash V-NAND z 3-bitowym MLC cechuje się najszybszą spośród obecnie dostępnych pamięci NAND prędkością przesyłu danych – 1 Gbps (gigabitów na sekundę). Dodatkowo V-NAND ma najkrótszy na rynku czas tPROG równy 500 mikrosekund (㎲), co sprawia, że napęd to jest cztery razy szybszy od typowej 10-nanometrowej pamięci flash NAND i około 1,5 razy szybszy od najbardziej wydajnej do tej pory, 48-warstwowej pamięci flash Samsung V-NAND z 3-bitowym MLC. Nowe rozwiązanie oferuje 30-procentowy wzrost wydajności w porównaniu do poprzedniej 48-warstwowej wersji. Dodatkowo napięcie wyjściowe 64-warstwowej V-NAND wynosi 2,5 V, dzięki czemu zużywa ona o około 30% mniej energii. O 20% zwiększyła się także niezawodność nowej pamięci w porównaniu z poprzedniczką. SSD vs HDD – ostateczne starcie Czy zatem dyski HDD nie mają żadnych zalet? Jeszcze do niedawna wygrywały z SSD pod względem pojemności. Rynek jednak dostosowuje się do potrzeb konsumentów, dlatego też stale obserwujemy pojawianie się coraz większych dysków SSD, takich jak stworzona przez firmę Samsung pierwsza kość pamięci masowej o pojemności 2TB. Dzięki temu na rynku są już dostępne dyski o pojemności 4 TB. Zdecydowanie warto już dziś zainwestować w dysk SSD o większej pojemności, która daje znacznie więcej swobody w bieżącym korzystaniu z komputera. Pozwala np. stworzyć bezpieczne archiwum domowych zdjęć, filmów, czy innych ważnych dokumentów. Ważne również, by dysk flash był napędem systemowym, co znacznie przyśpiesza działanie komputera. Budowa i brak części ruchomych to źródło przewagi dysków SSD nad „twardymi”. Ta kluczowa różnica umożliwiła przeskoczenie technicznych barier. Podobnie było w przypadku dyskietek i płyt CD oraz telewizorów lampowych i tranzystorowych, kiedy to nie rozwój technologii, ale zastosowanie zupełnie nowych rozwiązań pozwoliły na przełom i osiągnięcie lepszych wyników. Wszystko wskazuje na to, że dyski HDD powoli odchodzą do lamusa. Może za kilka lat będą dla nas takim samym reliktem przeszłości jak dyskietki? źródło: Samsung Electronics Polska LaCie Little Big Disk: pierwszy zewnętrzny dysk ze złączem Thunderbolt. Prawie rok po premierze cudownego złącza Apple’a Thunderbolt (alias Lightpeak) urządzeń w nie wyposażonych wciąż jest niewiele. Chociaż teoretycznie jest ono dwa razy szybsze od popularnego obecnie USB jednak bardzo niewielu producentów zdecydowało się dotychczas na jego implementację. Nic dziwnego, bo port Thunderbolt mają jak na razie tylko aktualne komputery Apple’a jak na przykład MacBook Pro i Air czy też iMac. LaCie, wypuszczając Little Big Disk, robi w tej dziedzinie krok do przodu. Ten zewnętrzny dysk jest dostępny w dwóch wersjach HDD – z pojemnościami 1 i 2 TB – oraz w przetestowanym przez nas wariancie SSD o pojemności 240 GB, który składa się z dwóch napędów Intel SSD 510 (SSDSA2CW120G3) połączonych w macierzy RAID 0. Jego cena, wynosząca około 3500 zł, nie stanowi powodu do dumy. Dodatkowe 200 zł trzeba wyłożyć na kabel Thunderbolt. Kompaktowy, ale głośny We wszystkich trzech wersjach urządzenia Little Big Disk firma LaCie wykorzystała tą samą obudowę ze żłobkowanego aluminium, posiadającą wbudowany wentylator. Ma to uzasadnienie, ponieważ obudowa służy za pasywny radiator a sam wentylator wytwarza dodatkowy pęd powietrza. SSD-eki nie potrzebują aktywnego chłodzenia, a tutaj aktywny jest szybko wirujący wiatrak, co jest zwyczajnie denerwujące. Ponieważ urządzenia Thunderbolt są zawsze połączone szeregowo, Little Big Disk posiada dwa porty Thunderbolt oraz zewnętrzny zasilacz. LaCie Little Big Disk: po jednym porcie Thunderbolt – do połączenia z Mac-iem oraz dalszej komunikacji z następnym urządzeniem. Tak testowaliśmy Jako urządzenia docelowego użyliśmy do testu 13,3-calowego MacBook-a Air z procesorem Core i7-2677M, pamięcią operacyjną o pojemości 4 GB oraz dyskiem SSD o pojemności 256 GB. Podłączyliśmy do niego testowane urządzenie i zanotowaliśmy 530 MB/s podczas odczytu i 265 MB/s podczas zapisu przy użyciu przewodu Thunderbolt – to bardzo szybko. Ponieważ z technicznego punktu widzenia jest to ciekawostka, nie umieszczamy wersji SSD dysku LaCie Little Big Disk w rankingu z normalnymi, zewnętrznymi dyskami 3,5 cala, jednak porównanie wyników pomiarów pokazuje, że jest on znacznie szybszy niż wszystkie dotychczasowe dyski twarde wyposażone w złącza USB oraz eSATA. W porównaniu z jak na razie jedyną alternatywną pamięcią masową z portem Thunderbolt – Promise Pegasus R6 – sprawa wygląda jednak już inaczej. Bez względu na to, czy jest to odczyt czy zapis, czy są to dyski twarde, czy SSD-eki, macierz RAID Pegasus R6 bije LaCie Little Big Disk pod każdym względem. Jest on jednak znacząco droższy (od 4500 zł). Porównanie wyników pomiarów Model Odczyt Zapis LaCie Little Big Disk (2 x SSD) 530 MB/s 265 MB/s Promise Pegasus R6 (6 x HDD) 745 MB/s 745 MB/s Promise Pegasus R6 (4 x SSD) 569 MB/s 746 MB/s Promise Pegasus R6 (2 x SSD) 799 MB/s 751 MB/s Podsumowanie Lacie Little Big Disk jest bardzo szybką i drogą ciekawostką wśród napędów. Kto szuka dysku dla portu Thunderbolt, nie przejdzie koło niego obojętnie. Nie, ponieważ jest on wyjątkowo dobry, ale dlatego, że jak na razie po prostu nie ma innych dysków ze złączem Thunderbolt. Do tego trzeba znosić niepotrzebny hałas. Radzimy Wam ostatecznie jeszcze się wstrzymać, aż na rynku pojawią się konkurencyjne modele ze złączem Thunderbolt. Alternatywa Jako że port Thunderbolt jest dostępny na razie tylko w środowisku Apple i oprócz LaCie Little Big Disk nie ma jeszcze innych napędów z Thunderbolt-em, prawdziwej alternatywy nie ma. Najlepszym zewnętrznym dyskiem dla Mac-ów byłby oferujący szybkie transfery Seagate FreeAgent GoFlex Desk STAC3000201 3TB. Podłączony do FireWire 800 osiąga w naszych testach ponad 100 MB/s, oferuje 3 TB pamięci masowej, ma wymienny interfejs (zapowiedziano również Thunderbolt) i sprzedawany jest od 1300 zł. LaCie Little Big Disk Bardzo szybki, drogi i głośny dysk zewnętrzny ze złączem Thunderbolt. PLUSY: Bardzo szybki Wysokiej jakości aluminiowa obudowa MINUSY: Tylko dla złącza Thunderbolt Głośny wentylator Brak w ofercie kabla Thunderbolt Cena: 3500 zł Powiązane treści: Dyska zewnętrzny 500GB – jaki wybrać?

dlaczego nośniki pamięci masowej mają coraz większe pojemności