Home Innovatie & Strategie Vier verbeteringen in IT om AI-initiatieven te ondersteunen

Vier verbeteringen in IT om AI-initiatieven te ondersteunen

85

Organisaties die nog steeds proberen om kunstmatige intelligentie (AI) en machine learning (ML) workflows te draaien op traditionele IT-infrastructuren hebben moeite om ROI te behalen. Wat is de sleutel om dit soort projecten tot een succes te maken?

Steeds meer organisaties gebruiken AI. Toch blijft het bij veel AI-projecten moeilijk om rendement te behalen. Dit is een algemene rode draad binnen digitale transformatie waarin complexiteit, een tekort aan talent en knelpunten in de IT veel voorkomende obstakels zijn. Hieronder worden een aantal eisen besproken die AI-projecten stellen aan IT en worden vier veranderingen voorgesteld waarmee IT, AI-projecten beter kan ondersteunen.

  1. Verander de mentaliteit van AI en DevOps naar ‘MLOps

Het is interessant om te zien hoe de meeste AI-initiatieven uiteindelijk discussies worden over mensen. Op IT-niveau is dat niet anders. AI-projecten zijn vaak een verhaal van twee aparte teams, twee soorten workflows en twee manieren om dingen gedaan te krijgen.

Het ‘debt and friction’ concept verklaart waarom IT-teams, die over het algemeen belast zijn met het uitbouwen van de infrastructuur voor AI-teams, het vaak moeilijk hebben. Het gaat hier niet om ‘standaard’ softwareprojecten. Zo zien de data pipelines in AI er bijvoorbeeld heel anders uit dan traditionele software data pipelines. De data pipelines in AI kunnen zich bevinden in en bewegen tussen on-premises, hybrid clouds of de edge. Wanneer wordt geprobeerd om in deze infrastructuren nieuwe data-initiatieven in te passen, kan dit problemen opleveren:

  • DevOps- en AI/ML teams zijn anders ingericht. Data science-teams vertrouwen op DevOps-teams om hun data pipelines te ‘industrialiseren’, maar het kan voor DevOps moeilijk zijn om ze daarin te ondersteunen met legacy-oplossingen. Data science-teams hebben een niveau van datamobiliteit nodig die te hoog kan zijn voor DevOps.
  • Legacy IT-infrastructuren zijn te fragiel voor grootschalige AI en ML projecten. Traditionele IT-infrastructuren en oplossingen voor data storage zijn niet goed afgestemd op de eisen van AI- en ML-teams. Het zijn als het ware ‘software 1.0 machines’ die proberen om multi-cloud omgevingen en software 2.0 initiatieven te ondersteunen.
  • ‘Schaduwprojecten’ hebben geen toegang tot de middelen die ze nodig hebben. Als een AI-project zich buiten het datacenter (‘shadow-AI’) en buiten de bredere IT-organisatie bevindt, kan dit ertoe leiden dat teams worstelen met beperkte toegang tot gemeenschappelijke services en middelen.
  • AI/ML-data worden opgesloten of in silo’s gestopt. Als data in silo’s zijn ondergebracht of niet snel genoeg kunnen worden verplaatst voor experimenten en inferentie tussen on-premises en de cloud, kunnen AI-projecten vastlopen.

Door het samenvoegen van DevOps en AL/ML is een nieuwe IT-discipline ontstaan: ‘MLOps’ of ‘AIOps’: een nieuwe mindset die draait om de architectuurkeuzes die AI-teams nodig hebben om succesvol te kunnen zijn.

  1. Voer de computerprestaties op voor MLOps

MLOps-teams werken goed als ze toegang hebben tot een moderne mix van technologieën die de data-eisen van AI goed ondersteunen, waaronder:

  • Meer rekenkracht/snelheid
  • Snellere netwerkmogelijkheden

Door gebruik te maken van GPU’s in plaats van CPU’s kunnen AI-projecten de rekenkracht krijgen die ze nodig hebben. Geïntegreerde hardware- en softwareoplossingen zoals de AIRI//S (AI-Ready Infrastructure) bieden ‘out-of-the-box’ storage, zonder dat het datacenter opnieuw ingericht hoeft te worden. Zo worden AI-modellen die voorheen een week nodig hadden om ze trainen nu in een uur getraind.

Neem bijvoorbeeld een van ’s werelds snelste AI-supercomputers: de RSC, AI Research SuperCluster van Meta. Deze is ontworpen om next-gen AI-modellen te trainen met petabytes aan data. Het onderzoek helpt Meta om te leren hoe het meer content kan leveren die mensen graag willen. Maar daar is wel storage nodig die petabytes aan data aankan en die de prestaties levert die de supercomputer nodig heeft. Dankzij geavanceerde flash storage kan Meta de GPU- en storagebehoeften van de supercomputer ondersteunen en tegelijkertijd de operationele kosten beperken.

  1. Benut de prestatievoordelen van UFFO storage

Het bouwen en beheren van data pipelines zijn doorgaans de duurste en lastigste aspecten van een AI/ML-oplossing. Vanwege de groei van de hoeveelheid ongestructureerde data kunnen problemen in het beheer van complexe storage leiden tot downtime of kan het zijn dat data niet optimaal worden benut.

Nu AI-projecten in een stroomversnelling raken, zullen ze meer en sneller data vereisen. Legacy storage kan die vraag niet bijbenen, waardoor AI-toepassingen en -inzichten vertragen (dit is één reden waarom AI-developers zich zorgen zouden moeten maken over storage). Legacy systemen die zowel compute als storage bevatten, zullen zorgen voor meer complexiteit naarmate de prestatiekloof tussen compute en storage groter wordt. Unified Fast File and Object (UFFO) storage kan datatypes consolideren en de prestaties van data-intensieve AI-workloads verbeteren.

  1. Maak gebruik van hybride en multicloud omgevingen

Het gebruik van multicloud voor AI-, ML- en deep learning-initiatieven biedt teams meer flexibiliteit en meer keuze in clouddiensten zonder vendor lock-in.  Een voorbeeld: on-premises wordt gebruikt voor compliance, snelheid en kosten besparen; AWS Outposts wordt gebruikt voor het beheer, zodat teams niet iedere server, netwerk en applicatie zelf hoeven te beheren.

Trifacta zegt: “de voordelen van de cloud zijn niet te overschatten, vooral als het gaat om de mogelijkheid om analytics- en AI/ML-initiatieven snel op en af te schalen”. Uit hun rapporten blijkt dat 66% van de respondenten alle of de meeste AI/ML-initiatieven in de cloud uitvoert. Deze initiatieven kunnen zeer mobiel zijn: data pipelines voor AI-workflows kunnen zich verplaatsen tussen co-located, lokale of publieke cloud componenten, waardoor een betere oplossing voor datastorage van cruciaal belang is.

Maak AI-succes op grote schaal mogelijk

Naarmate het aantal AI- en ML-projecten toeneemt en deze zich verder blijven ontwikkelen, krijgen we een duidelijker beeld van wat wel werkt en wat niet. Deze projecten zijn uitdagend en complex, maar er is een enorm potentieel voor de data en diensten via intelligente technologie binnen organisaties – niet alleen beperkt tot data science.

CIO’s en CTO’s zouden hun organisaties nu moeten voorbereiden op moderne UFFO-storage. Dit zou wel eens de sleutel kunnen zijn tot het oplossen van hun uitdagingen. We weten dat dit multicloud-omgevingen kan stroomlijnen en een gestandaardiseerde back-end kan creëren die het makkelijker maakt om data te verplaatsen. Het zijn echter ongeëvenaarde snelheid en wendbaarheid die een AI-project echt toekomstbestendig maken, ongeacht wat deze verder vereist.

Marco Bal, Principal Systems Engineer, Pure Storage

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in