Home Innovatie & Strategie Is Enterprise IT wel revolutionair?

Is Enterprise IT wel revolutionair?

186

Terugkijkend naar de afgelopen jaren in de IT en smachtend vooruitkijkend naar iets nieuws dat structureel anders is, rijst bij mij de vraag of IT wel revolutionair kan zijn.

Een revolutie is een radicale omslag of verandering in een korte tijd. Het is het tegenovergestelde van een evolutie. Een evolutie is een geleidelijke verandering. Uitgaande van de definitie verschillen tussen revolutionair en evolutionair is er veel veranderd in IT en beter geworden, maar in mijn ogen niet structureel veranderd. Zelfs nu de time to market steeds korter wordt en dus eigenlijk in een korte tijd een verandering moet worden doorgevoerd gaat het in mijn ogen nog steeds over een geleidelijke verandering.

Even een tweetal voorbeelden

Op storage-gebied zien we een ontkoppeling van snelle opslag devices (SSD, NVME) en de management- en dataservices (snapshots en replicatie). De opslag wordt hierbij weer lokaal in server chassis geplaatst. Op zich behoorlijk revolutionair want het heeft een radicale impact in de inrichting van de storage oplossingen en de manier hoe virtualisatie oplossingen en applicaties om moeten gaan met dataservices.

De snelheid waarmee NVMe wordt geïntroduceerd en geïmplementeerd in verschillende form factors waaronder de M.2 geheugenbank format is binnen 16 maanden zeer snel te noemen. Bij SSD duurde het 36 maanden om van consumergrade flash zijn weg te vinden in de Enterprise markt. De weg van SCSI, via IDE, SATA, FC naar SAS met dezelfde 2.5” en 3.5” spinning drives heeft jaren in beslag genomen.

Met de komst van Hyper Converged is naast de storage virtualisatielaag de IT-stack geoptimaliseerd. Deze draait echter nog steeds op de huidige server- en netwerktechnologie en maakt gebruik van shared opslag. Het is een nieuwe manier van beschikbaarheid en schaalbaarheid introduceren voor je gevirtualiseerde omgeving. Dus over de tijd as en de impact in de IT-organisaties is het een kandidaat om een Revolutionair label te krijgen, maar volgens mij is het gewoon evolutionair. Het is een geleidelijke verandering van bestaande componenten en technologie die de vraag en behoefte beantwoordt van het verder reduceren van IT-componenten.

Virtualisatie zelf was een Revolutionaire oplossing in het Intel tijdperk (Mainframes werkte toen al jaren met dat concept) om meerdere fysieke servers op een softwarematige data center inrichting te plaatsen. Het is bijna ondenkbaar dat een IT-organisatie vandaag de dag geen servers virtualiseert. Behoorlijk radicaal dus. Buiten de evolutionaire ontwikkelingen om nog efficiënter met de resources om te kunnen gaan en de beschikbaarheid verder te verhogen is het initiële idee om structureel de server infrastructuur te optimaliseren niet verder ontwikkeld.

Waar men voorheen honderden fysieke servers had voor allemaal specifieke applicaties, zijn nu nog steeds honderden virtuele machines nodig ieder met zijn eigen besturingssysteem draaiend op een specifieke processor technologie met toegewezen resources. Applicaties draaien bijna nooit meer direct op de server maar op een virtualisatielaag. De applicatie draait dus op een gevirtualiseerd besturingssysteem. Dit besturingssysteem is vaak hetzelfde besturingssysteem als die waarop de virtualisatie software zelf draait. Als je nu tien Virtuele Machines hebt draaien boven op een server zijn er elf instanties van een besturingssysteem. Wanneer er een security patch uitgerold moet worden, moet deze 11 keer geïnstalleerd worden.

De komst van Big Data en IOT zijn op zich revolutionair te benoemen, omdat we in een korte tijd radicaal veranderen van een reactief datamanagement waar op basis van frequent gegenereerde rapportages menselijke besluiten worden genomen, naar een digitale transformatie gaan om met realtime analyses geautomatiseerde besluiten te nemen en door te voeren.

Software achtige oplossingen lijken op zich dominant leidend te zijn in de ontwikkeling van de data center intelligentie om de bedrijfsprocessen te kunnen optimaliseren. Zonder hardware geen software, maar de intelligentie van IT en de organisatie wordt zeker bepaald door de software laag.

Met deze invalshoek is het interessant om de ontwikkeling van Openstack en Open Compute te volgen. Zodra je aan dit succesnummer containerized applicatie virtualisatie toevoegt, is de stap naar de volgende generatie IT-intelligentie realiseerbaar.

Met applicatie virtualisatie ontwikkel je containers met specifieke functies, die je aan elkaar koppelt. Dus in plaats van meerdere (virtuele) servers ieder met zijn eigen besturingssysteem en functionaliteiten, kan nu op 1 (virtuele) server direct meerdere volledig geïsoleerde functionaliteiten gevirtualiseerd worden. De makers achter container software vragen zich af waarom je steeds hetzelfde besturingssysteem individueel wilt managen. Zij splitsen het besturingssysteem in twee delen, het vaste deel wat altijd hetzelfde is en een deel met daarin de specifieke wijzigingen van het systeem.  Het virtuele machine concept wordt vervangen door een container met daarin het besturingssysteem specifieke deel en de applicatie. De hypervisor software wordt vervangen door een stuk software waarmee een container geëxecuteerd kan worden. De container software is voor het vaste deel van het besturingssysteem afhankelijk van de fysieke host.

Is er nu een patch in het vaste deel van het besturingssysteem nodig dan hoeft de patch maar op een plaats uitgevoerd te worden, namelijk op de host en alle containers maken daar meteen gebruik daarvan. Ook een ontwikkeling of test van de applicatie laag is eenvoudig door een container te kopiëren en daarmee te testen. Alle unieke veranderingen worden separaat opgeslagen en kunnen dus ook eenvoudig worden teruggedraaid of weggegooid worden.

Bij containerized applicatie virtualisatie blijft data zoveel mogelijk buiten de container. In een openstack inrichting wordt data opgeslagen in computernodes met interne opslag devices en kan voor de nog wat traditionele inrichtingen (databases, filesystemen) en applicaties die nog niet op een containerized manier gevirtualiseerd optimaal gebruikt worden. Het is eenvoudig om een container te koppelen aan de openstack inrichting. Deze benadering voorziet in een open platform om gedistribueerde applicaties te beheren en te installeren en lijkt heel erg op de “app store” van je mobile telefoon. Is een applicatie niet meer nodig, doordat er een nieuw alternatief beschikbaar is dan deinstalleer je de container gewoon, maar blijft de data behouden. Iets wat in de huidige virtuele server omgeving nauwelijks gebeurt waardoor veel oude applicaties met inactieve data tot in lengte van dagen blijven draaien.

Open Compute Projecten (OPC) staan de laatste tijd flink in de belangstelling. Bij meer en meer datacenters wordt gekeken naar de voordelen van een overstap naar een op OCP-principes gebaseerde aanpak. Hierdoor ontstaan nieuwe kansen maar de voorwaarde is dan wel dat men zich goed voorbereid op een toch wezenlijk andere manier van datacenters ontwerpen en bouwen. Tevens moet de IT organisatie zich instellen op deze verandering en bereid te zijn af te willen stappen van de huidige manier van applicatieontwikkeling.

Het idee achter OCP is om de grenzen waar de huidige data center en rack architectuur tegen aanloopt verder op te rekken. Het huidige energieverbruik is een van de belangrijkste triggers om OCP te implementeren. Zo kan door de huidige standaard van 230Volt voorziening los te laten en te vervangen voor 12 tot 48volt aanzienlijk efficiënter stroom worden gebruikt. Ook kan de koeling aanzienlijk geoptimaliseerd en gereduceerd worden door af te wijken van de standaard 19” racks om zo hogere luchtintrede temperaturen toe te laten. Tot slot is men continue op zoek om componenten die niet echt relevant zijn in een traditionele server te verwijderen en te komen tot de meest optimale inrichting.

Wellicht is het nu nog even te vroeg om het Intel platform volledig vaarwel te zeggen, maar initiatieven als Rasberry Pi of Parallella gaan de manier waarop computers worden gemaakt veranderen. Simpel gezegd, zijn dit een kleine energie-efficiënte supercomputers gebouwd voor iedereen die het gelijktijdig en efficiënt verwerken van complexe software mogelijk maakt. Intel daarentegen kondigt een nieuwe klasse van niet-vluchtig geheugen (NVM) apparaten aan om gebruik te kunnen maken van hun nieuwe Optane ™ Memory Technology waarmee zij geheugen gaan verbinden met compatibele moederborden voorzien van M.2 slots en daarmee de nieuwe storage devices direct op het moederbord worden geplaatst en zo voorgoed afscheid wordt genomen van SSD en spinning drives.

De impact die dit alles heeft op hardware en datacenters is in potentie groot en zeker radicaal te noemen. De verschillende op zichzelf staande initiatieven bevestigen echter de onduidelijkheid over de impact van een revolutionaire doorbraak door de effort die het met zich meebrengt. Moeten we ons volledig op deze ontwikkeling inzetten en bestaande investeringen in ruimtes en systemen herinrichten of is het beter dit gefaseerd te doen en nog te blijven leunen tegen wat je al hebt. Greenfield is altijd makkelijker omdat je dan volledig nieuw kan beginnen, maar bestaande organisaties hebben vaak de investeringen te veel gespreid om radicaal te vernieuwen, waardoor evolutionaire optimalisaties eenvoudiger zijn in te plannen maar minder structureel vernieuwen.

Ik heb de uitspraak al vaker gebruikt; “Als je doet wat je deed, krijg je wat je kreeg”. Als dat prima is voor je organisatie, moet je vooral blijven doen wat je deed. De kans dat nieuwkomers je voorbij gaan is dan zeer zeker een potentieel gevaar. Volgens mij is in de huidige kort cyclische en zeer competitieve markt het een vereiste om frequent en radicaal te veranderen om de concurrentie voor te blijven en te zoeken hoe vernieuwend en efficiënter gewerkt kan worden om meer winst te maken zonder de kernwaarden van de organisatie uit het oog te verliezen.

Of IT vandaag de dag revolutionair te noemen is weet ik niet, want veel is al lang bedacht en ontwikkeld in het mainframe tijdperk, maar dat de scheidslijn tussen evolutionair en revolutionair dun is, is zeker. Vernieuwen is een must en daar krijg je als IT-leverancier of IT-organisatie steeds korter de tijd voor. Daarnaast is het zoeken naar en het toepassen van nieuwe technologieën vooral gewoon leuk en helpt het de sleur van de dagelijkste IT-beslommeringen te doorbreken en trendsetter te zijn in IT.

Vincent van der Linden

 

 

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in