Organisaties zijn in toenemende mate op zoek naar manieren om hun IT-investeringen te optimaliseren. Het simpelweg verhogen van uitgaven aan de cloud is echter niet altijd de juiste manier om dit te bereiken. In plaats daarvan moeten organisaties zich richten op het creëren en optimaliseren van dataportabiliteit of het herontwerpen van omgevingen.
Nu organisaties zoveel data hebben, kan dit echter snel voelen als een onmogelijk taak. Zeker als zij te maken hebben met cloud lock-in en legacy-applicaties die het verplaatsen van data niet toestaan. En dan moet er ook nog rekening gehouden worden met de toenemende dreiging van cyberaanvallen. Er moet dus een goede balans gevonden worden tussen kosten en beveiliging voor iedere workload. Om deze balans te bewaren ontwerpen IT-teams hun omgevingen steeds vaker met dataportabiliteit in hun achterhoofd.
Waarom is dataportabiliteit belangrijk?
Moderne IT-omgevingen zijn enorm complex. Daarnaast zorgt het groeiende belang van data ervoor dat sommige organisaties zich gedragen als ‘digitale hoarders’. Dit is problematisch omdat het behouden van data die je niet echt nodig hebt, organisaties kunnen blootstellen aan onnodige cyberrisico’s. Dit overschot aan data in de cloud heeft ook grote financiële consequenties en kan leiden tot een onverwacht hoge rekening.
Ook al zijn veel organisaties in de eerste plaats naar de cloud overgestapt om kosten te optimaliseren, de flexibiliteit die de cloud biedt, kan ook nadelen hebben. Het voordeel van de cloud is dat je alleen betaalt voor wat je gebruikt. Daartegenover staat echter dat er geen plafond is, dus kunnen de kosten makkelijk uit de hand lopen. Het is daarom belangrijk dat je het juiste platform kiest voor de juiste workload. Het kan dan ook zijn dat andere platforms beter passen bij de eigenschappen van de workload. Alleen als dataportabiliteit mogelijk is, kun je de workloads optimaal laten draaien in de omgeving die hier het beste voor is, en dus kosten optimaliseren. Om dit te realiseren is goed databeheer en data hygiëne nodig. Voordat je data gaat verplaatsen of processen wil verbeteren, moet je namelijk eerst precies weten welke data je hebt en waar deze zich bevinden.
Welke data kunnen verplaatst worden?
Wanneer je eenmaal hebt bepaald waar je de data naartoe wilt verplaatsen – hetzij naar een andere omgeving, server of opslag – is de volgende, lastigere, vraag wélke data je kunt verplaatsen. Hier ligt voor de meeste organisaties de grootste uitdaging. Er zijn verschillende factoren die het lastig maken om een workload naar een andere locatie te verplaatsen. De eerste in de ‘technical debt’ – het extra werk en onderhoud dat nodig is om oude applicaties te updaten naar een punt waarop zij draagbaar en compatibel zijn met andere omgevingen. Hier kunnen veel oorzaken voor zijn, maar als je oude applicaties niet updatet is het onmogelijk om de omgeving te optimaliseren. Daarnaast kan het problemen veroorzaken voor bijvoorbeeld back-up herstelpraktijken.
Het tweede probleem dat dataportabiliteit kan beïnvloeden is cloud lock-in. Het is alom bekend dat organisaties makkelijk vast komen te zitten bij specifieke cloud providers. Dat kan zijn vanwege integraties met services en API’s die elders niet gerepliceerd kunnen worden of een gebrek aan kennis in het werken met andere providers. Dit heeft natuurlijk alleen invloed op het verplaatsen van workloads uit de cloud. Het is dan wel nog steeds mogelijk om betere portabiliteit te bouwen om nieuwe opslagopties te realiseren en data hygiëne te bevorderen. Uiteindelijk moeten organisaties, waar mogelijk, enige standaardisatie creëren, data uniformer en draagbaarder maken en deze beter in kaart brengen en categoriseren, zodat ze weten wat ze hebben en waarvoor ze dienen. Dit vormt de basis van succesvolle dataportabiliteit.
De (constante) beveiligingsvraag
Het is belangrijk om beveiliging niet achterwege te laten wanneer organisaties aan de slag gaan met dataportabiliteit. Het verbeteren van de beveiliging kan (en zou) een goede reden kunnen zijn voor het verplaatsen van workloads. Maar als je workloads verplaatst om kosten te optimaliseren, moet dit gebalanceerd worden tegen beveiligingsmaatregelen. Teams moeten zich afvragen ‘wat hebben we?’, ‘wat hebben we niet nodig?’ en ‘wat zijn kritische workloads die we absoluut niet kunnen verliezen?’.
Het hebben van dataportabiliteit kan beveiligingsmaatregelen, zoals back-up en herstelprocessen, ook ten goede komen. Tijdens een incident, zoals een ransomware-aanval, kun je workloads niet altijd terugplaatsen in de gebruikte omgeving omdat deze bijvoorbeeld afgesloten wordt als plaats delict of omdat de omgeving nog steeds een gevaar kan vormen. Om snel te kunnen herstellen en downtime te voorkomen, moeten workloads soms hersteld worden naar een tijdelijke omgeving, zoals een andere cloudomgeving. Dit kan alleen als dataportabiliteit gegarandeerd is.
Naarmate organisaties hun IT-omgeving steeds efficiënter willen beheren en onverwachte kosten willen voorkomen, is het belangrijk om te blijven beoordelen welke data en applicaties je hebt, waar deze zich bevinden en of ze daar optimaal draaien. Om dit te beheren moeten organisaties hun omgevingen bouwen met dataportabiliteit als centraal thema. Door dit te doen kunnen zij een flexibilere en meer kosten-effectieve cloudomgeving creëren. Daarnaast kunnen zij eenvoudiger herstellen van een cyberramp, zoals ransomware.
Rick Vanover, Senior Director Product Strategy bij Veeam