Home Data & Storage Waarom Hybride en Flash only oplossingen niet de verbetering brengt die u...

Waarom Hybride en Flash only oplossingen niet de verbetering brengt die u verwacht.

78

We staan aan de vooravond voor een nieuwe opslag hardware technologie die de voortdurende groei van capaciteit en vooral performance een oplossing kan bieden. Schaalbaarheid is al een lange tijd geen discussie meer, maar performance blijft een moeilijk te berekenende specificatie die vereist is om een juiste oplossing samen te stellen.

Het lijkt eenvoudig, meer disken is meer performance, maar daarmee groeit de opslagcapaciteit snel uit zijn jasje. Om de densiteit van een opslagplatform te reduceren, en daarmee de kosten die gemoeid gaan met minder data center ruimte te besparen, is het storage landschap veranderd door de introductie van flash technologie.

Bedrijfsbelangrijke data, of data die snel verwerkt moet kunnen worden, wordt op de snelste opslagcapaciteit geplaatst en data met een lagere performance behoefte, maar die wel altijd beschikbaar moet zijn op de wat meer traditionele technologie en capaciteit.

Vandaag de dag zoeken IT-organisaties niet alleen naar een technologische invullingen, maar moeten ze ook geholpen worden om te kunnen onderbouwen hoe de te maken investeringen bij draagt aan het verlagen van de kosten. Er zijn genoeg oplossingen die het plaatsen van data op economische gronden automatisch kunnen verzorgen en toch zijn de ervaringen na het investeren in een platform niet altijd positief en blijft opslag een dure bezigheid.

Er zijn twee belangrijke invloeden waarom performance garanties niet worden gehaald.

De waarde van data veranderd sterk, doordat we sneller dan ooit tevoren uit alle data nieuwe initiatieven moeten ontplooien om onderscheidend in de markt te blijven, hierdoor veranderd de gemiddelde performance behoefte naar een veel gerichter gedeelte van de data die snel en nagenoeg realtime moet presteren.

Grafiek Mangstor

De hoeveelheid inactieve data groeit eveneens door en zit de performance intensieve data in de weg.

Geoptimaliseerde technologieën blijven hinder ondervinden van oude architecturen. Ondanks dat er opslag oplossingen zijn die samengesteld zijn uit flash drives en traditionele drives of zelfs volledig bestaan uit flash technologie, betekend nog niet dat de hoge performance die de flash technologie beschikbaar stelt ook in zijn geheel te gebruiken is. De snelheid wordt bepaald door de hoeveelheid stappen en connecties die de data moet afleggen van de gebruiker tot en met het opslagmedium en weer terug.

Grafiek Mangstor2

Prestaties vergelijken in opslagsystemen is moeilijk, doordat de manier waarop ze worden gemeten en aangeboden sterk verschilt. Prestaties kunnen variëren per toepassing of architectuur. In een aantal use cases, verplaatsen grote hoeveelheden data zich snel (high throughput); voor anderen is het ondersteunen van een groot aantal relatief korte processen (high IOPS) belangrijk. Om het probleem verder te compliceren, zijn factoren zoals blokgrootte, queue depth en de mate van parallelle doorvoer en de verhouding tussen frontend- (de applicatie server) en backend (de som van alle disken bij elkaar) IOPS in een omgeving bepalend voor de prestaties. Door deze complicerende werking zijn veel beheerders geneigd om alles op dezelfde manier in te richten.

Voor een goede prestatie van een applicatie betekent dat de reactietijd (latency) gemeten moet worden. Door het verminderen van de latency zal de prestaties worden verbeterd. Met dit gegeven is de methodiek om oplossingen met elkaar te vergelijken, door te kijken naar de (algehele) latency die de applicatie server ervaart.

Een traditionele en vaak geoptimaliseerde opslag inrichting wordt in prestaties belemmert doordat de datacenters maximaal 125MB per seconden doorvoer capaciteit leveren en dit verder afneemt tot 38MB per seconden voor de eindgebruikers.

De huidige opslagsystemen leveren maximaal tussen 50% tot 20% van de totale schrijf IOPS die het systeem in totaal beschikbaar heeft. Dit heeft te maken met dat iedere IOPS van de applicatie server naar een Raid10 (50% van de IOPS) of Raid 5-6 (20% van de IOPS) moet schrijven.

Tot slot levert iedere stap tussen het opslagmedium en de gebruiker een latency vertraging op. Door alle “hops” te berekenen (2-4MS voor de storage controller en dataservices 5-7Ms voor totale netwerk hops 5Ms voor de totale Virtualisatie laag en 2Ms voor de applicatie laag) komt men snel tot een vertraging van 18 Milliseconden, zonder dat er veel data wordt getransporteerd.

Vandaar dat de Flash technologieontwikkeling niet stil heeft gezeten en met een oplossing komt.

NVMe levert een nieuwe moderne data architectuur oplossing voor lokale of data center inrichtingen welke in de basis de vertraging van Milliseconden terugbrengt naar Microseconden. De doorvoersnelheid verhoogd van Gigabits naar Gigabytes en geen vertragende data functionaliteiten levert. De capaciteit is zoals gewoonlijk extreem schaalbaar, maar de benodigde data center capaciteit neemt aanzienlijk af. Het is niet ongebruikelijk om 100TB in 1U rack ruimte met 1.2 Miljoen IOPS te kunnen verkrijgen. Deze opslag innovatie levert een oplossing die 10x sneller is voor de verwerking van applicaties gegevens dan de huidige flash-gebaseerde storage-systemen en slechts een fractie van de data center ruimte nodig heeft dan traditionele hybride of all flash alternatieven.

Alle vertragende factoren zijn geëlimineerd en applicatie servers hebben een directe verbinding met hun deel van deze high performance flash capaciteit. Tevens zijn dus de traditionele opslag functionaliteiten verwijderd (zoals snapshot, replicatie) doordat deze high performance oplossing naadloos gebruik maakt van alle functionaliteiten die inmiddels door de hypervisor, applicatie of database oplossingen zelf al beschikbaar wordt gesteld. Hierdoor zijn vertragende functionaliteiten overbodig die in een verplicht licentie model samengaan met de technologische oplossing die op dit moment worden gepositioneerd.

Conclusie, we staan aan de vooravond van een nieuwe en moderne data architectuur inrichting die het gesprek over het belang en waarde van de data voor de organisatie structureel zal veranderen.

Wellicht nu wat hoger in aanschaf (gemiddeld 4 euro per GB), maar de daadwerkelijke snelheid waardoor applicaties meer in dezelfde tijd kunnen doen en de data center ruimte voor opslagcapaciteit aanzienlijk gereduceerd wordt, maakt een overstap eenvoudiger. Solidstate Disk Drive capaciteit in een traditioneel systeem kost slechts 12cent per GB, maar daar heb je er 300 van nodig voor dezelfde performance, met alle vertragende aspecten zoals eerder beschreven.

NVMe technologie levert in zeer weinig rackruimte grote hoeveelheden capaciteit met extreem hoge performance. De data functionaliteiten gaat geleverd worden door de Hypervisor, Applicatie of Database inrichting en wordt waar nodig aangevuld met een Hyper converged of Software Defined, maar echt hardware agnostische, Storage laag. Het vergelijken van verschillende oplossingen veranderd naar de reactietijd (latency) en prijs per GB.

Maar alle veranderingen die IT-organisaties nu kunnen doorvoeren in het versimpelen van de opslag architectuur en door de performance te koppelen aan de bedrijfsbelangrijke applicaties, krijgen het resultaat die de organisatie initieel van de investering verwachte. Als je doet wat je deed, krijg je wat je kreeg.

Vincent van der Linden, Managing Director Mangstor Benelux

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in