
Soms moeten we even terug in de tijd gaan om te begrijpen waarom we ook al weer de dingen doen zoals we die vandaag de dag doen. En soms moeten we even afstand van de hedendaagse ‘rush’ nemen om tunnelvisie (of beroepsdeformatie…) te voorkomen. Als je beide kunsten beheerst neem je in de IT-sector bekende cycli waar die iedere zoveel jaren voorkomen. De technologie is weliswaar verbeterd, evenals de implementatie, maar in zekere zin blijft het “oude wijn in nieuwe zakken”. Dat is overigens niet per definitie een slecht gegeven, oude wijn smaakt tenslotte in veel gevallen zelfs beter.
In de jaren ‘80 gingen we massaal aan de Server. Intel’s x86 architectuur en Novell’s NetWare waren het alternatief voor die dure en inflexibele mainframes en minicomputers. Alle data op een lokale PC disk laten staan bevorderde het samenwerken niet, en die 5,25” Floppy Disk was nou niet echt het medium om informatie uit te wisselen.
Datacenter 1.0
Met de groei van data, en dus meer en meer disks in de server, was de Fileserver geboren.
Microsoft kon niet wachten om er in 1993 met Windows NT een schepje bovenop te doen. In de daarop volgende jaren zagen we daardoor een explosie aan servers: iedere applicatie van enige naam en faam had wel een eigen server. En die stonden braaf in een kast, of in het data center 1.0 van organisaties die IT iets serieuzer namen.
Maar een groot gevaar lag op de loer! Alle data was gedistribueerd over heel veel servers. Dit maakte het uitvoeren van een back-up er niet gemakkelijker op. Alarm fase 1: bedrijfscontinuïteit was vijand nummer 1 geworden en moest aangepakt worden.
De oplossing was simpel en doeltreffend: data consolidatie. Zet al je informatie op een plaats, zorg dat je de juiste hardware oplossing, tools en processen hebt en je kunt eenvoudig je informatie beheren en optimaliseren.
Storage Area Networks (SAN’s) en Network Attached Storage (NAS) gingen als warme broodjes over de toonbank. Het was wat we in Marketing termen een ‘Sellers Market’ noemen. Een handje vol leveranciers regeerde over Storage-land met prijzen en marges die niet misselijk waren.
Daarnaast was er een SAN- versus NAS-architecturen wedloop die leveranciers deed kiezen voor een ‘kamp’ en daarmee dat specifieke Storage evangelie liet verkondigen. Een heilige oorlog was het zeker, je zou het bijna kunnen vergelijken met het VHS versus Betamax gevecht. Voor mij is dit een natuurlijk proces om tot een standaard te komen. Twee kampen zetten druk en dit bevordert innovatie, maar uiteindelijk wint er vaak maar één. In dit geval was dit SAN, al is NAS niet volledig uit beeld geraakt zoals Betamax destijds. Maar in de zakelijke markt wordt NAS voornamelijk als onderdeel van een SAN-architectuur ingezet.
Datagroei
Zware locomotieven (Storage controllers) moesten bergen data trekken in het SAN. Meer en meer wagons met hard disks moesten aan de locomotief gekoppeld worden om de eeuwigdurende datagroei in zijn behoefte te kunnen blijven voorzien. Je hebt geen master in IT-architectuur nodig om te begrijpen dat het in zo’n situatie steeds lastiger en/of duurder gaat worden om een locomotief te vinden die de wagons kan blijven trekken met de snelheid die een onderneming anno 2014 nodig heeft. Dus wat de heilige graal leek kon wel eens de industrie die nieuwe cycli geven om het weer eens anders te doen…..maar waar zetten we al die data dan weer neer?
x86 Servers standaardisatie en commodisering heeft zich inmiddels verspreid als een weergaloos virus. Ze werden bijna in kiloverpakking geïmplementeerd in het data center 2.0. Door al deze servers op een slimme wijze aan elkaar te knopen en te managen kon server virtualisatie in het data center zijn intrede vinden. Een leuke naam verzinnen was een fluitje van een cent voor de marketingdeskundigen en eureka! “De Cloud” was geboren!
Maar als je processorkracht van meerdere servers kan delen in een Cloud, kan je workloads, (vroeger heetten dat gewoon applicaties, maar de software marketeers zitten uiteraard ook niet stil), dynamisch over meerdere servers uitspreiden en optimaliseren. En wacht, kreeg een Storage array eigenlijk ook niet zijn functionaliteit door zijn proprietary software? Dat is interessant, dat maakt Storage dus eigenlijk een workload….en als je die nou eens op een server of in de Cloud zet? Juist, zo wordt storage dus ook onderdeel van de cloud-familie.
De trendwatchers zagen met adoptie van de SAN en de NAS de servers kleiner en kleiner worden (of dunner, zo u wilt). Simpel, de disks konden eruit omdat die naar het Storage netwerk gingen voor consolidatie. De wereld van High-dense Servers was geboren met als paradepaardje de Blade servers.
Maar de grootverbruikers van deze producten, de cloud-leveranciers, krijgen nu te maken met de volgende fase in dit proces. Zij zien dat deze servers weer groeien. Het zal toch niet…..maar ja, er gaan weer meer-en-meer disks in de server.
Flash
De verklaring is eenvoudig, de locomotief heeft het moeilijk en workloads vragen om snellere verwerking van de informatie. Er zijn in essentie nu twee wegen te bewandelen: 1) Flash opslag om sneller bij de data te komen of 2) de data dichter bij de processor en workloads brengen. Juist ja, in de server dus. Dit haalt de latency van het Storage netwerk drastisch omlaag. En de echte slimmeriken doen Flash in de Server, twee vliegen in één klap!
Dell’s Fluid Cache for SAN is een unieke hybride, zeg maar het beste van twee werelden. Via een PCI Serverkaart krijgen ondernemingen Flash opslag in de servers en is de kaart zo geconfigureerd dat hij als een “Tier-0” laag van het SAN opereert. Door de, softwarematige, intelligentie wordt vervolgens de juiste data, op de juiste tijd, op de juiste plaats tegen de juiste kosten gezet. Niemand doet Dell dat na. Hiermee heb je dus het voordeel van data consolidatie gecombineerd met de snelheid en schaalbaarheid van de server scale-out (Cloud) architecturen.
Dat is echter slechts één oplossing, deze markt is nog volop in beweging en onder de noemer Software Defined Storage zullen we nog duizend en één toepassingen gaan zien van standaard x86 servers gecombineerd met Storage software. Dat kan dus een nieuwe strijd der standaarden of oplossingen opleveren, maar persoonlijk heb ik nog geen concurrent gezien.
Hoe je het ook wendt of keert, de data is dus, opnieuw, aan de wandel! En wie weet komen we er over ongeveer 10 jaar wel weer achter dat het onbeheersbaar is geworden en dat we iets anders moeten gaan doen zoals…consolidatie? De eerlijkheid gebiedt ons te zeggen dat die goede oude fileserver eigenlijk nog niet zo gek was. Welbeschouwd is deze wijn nooit helemaal weggeweest, maar slechts voorzien van een nieuwe fles met een SAN- of NAS-etiket…. Maar de inhoud smaakt nog steeds naar meer.