Home Data & Storage Zo haal je waarde uit een complex datalandschap

Zo haal je waarde uit een complex datalandschap

56

Het is essentieel dat organisaties snel en eenvoudig toegang hebben tot gegevens. Of het nu gaat om het omgaan met onverwachte uitdagingen of het nemen van strategische beslissingen, analyse van die gegevens biedt de mogelijkheid om het verleden te begrijpen en de toekomst te voorspellen. Een vooruitziende blik is de sleutel tot succes. Maar hoe zorg je ervoor dat de beschikbare data de juiste inzichten bieden?

De wens van de organisatie om data snel en eenvoudig beschikbaar te hebben, staat vaak op gespannen voet met de noodzaak om dat op een goed gecontroleerde manier te doen. Bedrijven lopen bovendien tegen een aantal uitdagingen aan:

1. Complex datalandschap

De hoeveelheid systemen, apparaten en processen dat data produceert, groeit gestaag. In zijn ‘Worldwide Global DataSphere Forecast, 2020-2024’ voorspelt IDC dat de wereldwijde hoeveelheid data groeit van 33 zettabytes (ZB) in 2018 naar 175 ZB in 2025. Daar komt nog eens bij dat data binnen een zogenaamde multicloudarchitectuur vaak over meerdere cloudomgevingen worden opgeslagen. Daarnaast is er een steeds grotere verscheidenheid aan datatypen. Van traditioneel gestructureerde data tot ongestructureerde data van bijvoorbeeld social media. En van relatief kleine hoeveelheden data uit een ERP-pakket tot gigantische hoeveelheden streamingdata uit machines en sensoren. Hoe realiseer je gecontroleerde toegang tot al deze datasilo’s?

2. Complexe informatievragen

De informatievraagstukken in organisaties worden steeds complexer. Voor de beantwoording van die data zijn steeds vaker data uit een grote verscheidenheid aan bronnen nodig. Denk aan het bepalen van de CO2-voetafdruk van een bedrijf. Daarvoor zijn data nodig uit het productieproces, het logistieke proces en uit een hele set van ondersteunende processen. Daarop worden heel complexe berekeningen losgelaten. Bovendien zijn data uit alleen de eigen organisatie niet genoeg – ook data over de CO2-voetafdruk van ketenpartners als leveranciers moeten meegenomen worden. Hoe realiseer je dat deze data gecombineerd kunnen worden? En hoe realiseer je dat deze data eenvoudig beschikbaar zijn in de diverse analyse-applicaties?

3. Complexere eisen aan het gebruik van data

Datagedreven werken – het sturen van de organisatie op basis van data – brengt met zich mee dat er steeds meer eisen worden gesteld aan het gebruik van data. Dat gaat lang niet altijd om wetgeving, zoals de AVG. Ook vanuit de organisatie zelf wordt transparantie verwacht in het tot stand komen van stuurgetallen. Waar komen gebruikte data vandaan? Welke bewerkingen vonden plaats? Wat is de definitie van een bepaald stuurgetal? Et cetera. Daarnaast is in dit kader ook gecontroleerde toegang tot data van belang. Uiteraard gecombineerd met de mogelijkheid tot controle daarop achteraf. Dus niet alleen wie heeft toegang, maar wie maakte ook gebruik van dat recht tot toegang? Hoe realiseer je dat data vindbaar zijn, voorzien zijn van de benodigde context en dat de toegang tot die data in overeenstemming is met eisen en beleid?

Business data fabric

Om deze uitdagingen het hoofd te bieden, hebben organisaties geprobeerd om data fysiek samen te brengen door data te repliceren naar een centraal platform. Daarmee werd wellicht ten dele voldaan aan de eisen voor gecontroleerde toegang tot data. Tegelijkertijd leidt het exporteren en repliceren van data tot het verlies van waardevolle zakelijke context (metadata, logica, autorisaties, verbanden, et cetera). Context die in de gerepliceerde data opnieuw opgebouwd en beheerd moet worden om zinnig te kunnen werken met de data. Een enorm complex, tijdrovend en foutgevoelig proces dat de snelheid waarmee worden data ontsloten worden sterk in de weg staat.

Een Business Data Fabric-architectuur lost dit probleem op. Oftewel een virtuele toegangslaag tot alle data in het datalandschap. Een laag die alle ‘datadraden’ bij elkaar brengt en met elkaar verweeft tot een ‘stof’, een ‘fabric’ waarin patronen zichtbaar worden. Data blijven daarbij zoveel mogelijk opgeslagen in het systeem waarin ze al opgeslagen liggen (van ERP-pakket tot data lake), waarmee de context die in dat systeem is aangebracht bewaard blijft en gebruikt kan worden. Alleen daar waar noodzakelijk worden data gerepliceerd.

SAP Datasphere

Dit is de gedachte achter het recent geïntroduceerde SAP Datasphere. SAP Datasphere maakt het mogelijk om:

  • data gefedereerd aan te spreken, of het nu SAP-data of niet-SAP data zijn. Data blijven opgeslagen in de betreffende bron,
  • data waar nodig te repliceren, en
  • federatief aanspreken van data en replicatie van data te combineren in één oplossing.

Voor gebruikers van data wordt met SAP Datasphere één virtuele toegangslaag gecreëerd waarin:

  • data worden voorzien van een semantische laag – een vertaalslag van data naar voor de eindgebruiker bekende informatieobjecten,
  • data worden gecatalogiseerd,
  • data gecontroleerd en geautoriseerd aangeboden kunnen worden, en
  • een grote hoeveelheid voorgedefinieerde content aangeboden wordt om data-ontsluiting een kickstart te geven.

SAP Datasphere beperkt zich niet tot de data uit SAP-systemen, maar ontsluit ook de data die besloten liggen in niet-SAP-systemen. Hiervoor werkt SAP samen met andere leveranciers van dataoplossingen, zoals Databricks, Confluent, Collibra en DataRobot. SAP Datasphere biedt zo één oplossing om waarde te halen uit een complex datalandschap.

Niels van der Kam, solutions advisor voor o.a. SAP Datasphere bij SAP Nederland

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in