Home Data & Storage Breng compute naar waar de data zijn

Breng compute naar waar de data zijn

171

In een artikel van Jim O’Reilly op Networkingworld.com van 8 januari jl. staat als verwachting voor 2018 dat grote datacenters zullen beginnen met het anders opslaan van hun data. Een van de verwachtingen is dat met de komst van SSD drives met steeds grotere capaciteiten de noodzaak ontstaat om bewerkingen van die data op de drive zelf te laten plaatsvinden. Zo worden de server cpu, het geheugen en het netwerk ontlast. Deze ontwikkeling heeft enorm veel impact. Daarom is het jammer dat het ergens in het midden van het artikel was weggestopt.

Nieuwe aanpak

De datasets voor applicaties zoals Big Data, Machine Learning, AI en IoT groeien exponentieel. De gebruikers van al deze applicaties vrezen daarom dat niet alle data die worden vastgelegd ook daadwerkelijk effectief kunnen worden verwerkt in zinvolle informatie. De datasets worden simpelweg te groot om te transporteren. En de hoeveelheid data die we moeten analyseren vergt enorme extra hoeveelheden systeem- en netwerk resources. Een nieuwe aanpak is derhalve gewenst. De komst van een nieuw soort SSD opslag disks, waarbij op de drive zelf processing-capaciteit is geplaatst maakt het mogelijk deelbewerkingen geheel op de drive zelf te laten plaatsvinden. Hierdoor worden datatransport-bottlenecks geëlimineerd.

Deze technologie waarbij compute vlak bij de data wordt geplaats maakt het bijvoorbeeld mogelijk om zaken als encryptie, gezichtsherkenning, data protectie, deduplicatie etc. rechtsreeks op de drive zelf te laten plaatsvinden. Zo kun je grote hoeveelheden video streams rechtstreeks vanuit de drive streamen. Dus zonder de cpu en RAM geheugen hiervoor lastig te vallen.

Grenzen voor datacentra

En het is niet alleen een zaak van bandbreedte waarom we moeten nadenken over waar we de data gaan opslaan. Veel datacenters zitten aan hun grens ten aanzien van beschikbaarheid van stroom, vloeroppervlakte en gewicht. Als je grote capaciteit TLC en straks QLC gebaseerde SSD drives hebt, kun je zware magnetische schijven vervangen door lichte SSD’s. Ook kun in je in kleinere serverbehuizingen meer TB’s kwijt. Een voorbeeld ter illustratie. Een 2U server met 12 x $TB SAS disks, weegt ongeveer 30 kilo en verbruikt ongeveer 2000 watt, waarbij een 1U server met 96TB aan SSD, slechts 8 kilo weegt en slechts 700 watt gebruikt. Medio 2018 is al een 4U server JBOF (Just a bunch Of Flash) server beschikbaar met een capaciteit van 1PB met een stroomverburik van slechts 700 watt. Ter vergelijking 1Pb gevuld met 4tb harde schijven in 2 U servers verbruikt 100 kilowatt.

Rekenoefening

Het is nog zo dat standaard harde schijven per Gb goedkoper zijn ten opzichte van Flash en dat zal ook altijd wel zo blijven. Dit ondanks het feit dat de kosten van TLC en QLC flash met tientallen procenten per jaar zullen dalen. Maar neem als datacenter alles mee in je calculatie. Het feit dat je minder servers nodig hebt. En in de servers minder krachtige processoren, minder cores per cpu. Dan heb je dus lagere licentiekosten en minder geheugen nodig. Naast minder vloeroppervlak en een lagere stroomrekening. Dit is wellicht een rekenoefening waard?

Breng compute naar waar de data zijn. Dat zal echt een verandering brengen in het denken over dataopslag. We krijgen gewoon teveel aan data te verwerken om het op de traditionele centrale manier op te lossen. In Situ processing (letterlijk: processing op de plaats) is daar een antwoord op.

Jos Keulers, NVMestorage.com

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in