Vervuilde data is duur. Organisaties zijn van mening dat gemiddeld 25 procent van hun gegevens onnauwkeurig is, een factor die van invloed is op het bedrijfsresultaat. Dit is goed verwoord in de 1-10-100 regel: Als het je 1 euro kost om een datafout te voorkomen, kost het je 10 euro als je deze achteraf moet corrigeren - en 100 euro als er door deze fout een probleem ontstaat.
Onze aanpak zorgt ervoor, dat bedrijven datavervuiling voorkomen aan de bron, namelijk in de data pipeline.
Wij bouwen geautomatiseerde tests in jouw datapipeline, zodat er geen druppel vieze data meer binnen kan stromen.
Binnen circa 2 weken tijd gaan wij met ondersteuning van jouw domein specialisten:
Data Scientists opereren steeds meer in een wereld die verder reikt dan hun lokale ’eiland’ van RStudio of Jupyter notebooks. Vanuit de business is behoefte om de getrainde modellen in de productie-omgeving van het bedrijf op te nemen. De code begint hiermee aan een lang leven buiten de notebook, waarin deze veranderd en onderhouden zal worden door andere data scientists.
Bij deze overgang worden opeens andere eisen gesteld aan de code. Waar het doel eerst was om een zo accuraat mogelijk machine learning model te ontwikkelen, blijkt nu dat de code niet zomaar in een productie-omgeving opgenomen kan worden of niet zo goed te onderhouden is door anderen. Data- of devops-engineers schieten vanuit hun expertise hierin te hulp, maar deze disciplines spreken niet altijd dezelfde taal en hebben vaak een andere kijk op hoe software gebouwd moet zijn.
In deze hands-on workshop speciaal voor data scientists word je meegenomen in de wereld van clean coding en kijken we naar problemen die wij hebben gezien in onze ervaring met het in productie nemen van machine learning modellen. We doen dit aan de hand van een serie korte refactoring kata’s, steeds voorafgegaan door een stukje theorie. Als resultaat van deze workshop zal de overgang van lokale data science code naar een productiewaardig product makkelijker worden en daarmee sneller business value opleveren.
Complexe data berekeningen in de Cloud zijn duur en worden nu vaak op nacalculatie berekend. Wij weten hoe je door slimme inzet van goedkope tijdelijke resources (de zogenoemde Spots) hier significant op kunt besparen. Per machine-uur kunnen de kosten tot 90% lager zijn. Dit vertaalt zich in een significante besparing in €/output voor data intensieve workloads in de Cloud voor jouw organisatie. Onze experts helpen de kosten van Cloud data processing in kaart te brengen, te reduceren en onder controle te krijgen.
Jouw model en data vanaf dag 1 in productie – continu en altijd up to date.
Continous Delivery – het kort cyclisch en betrouwbaar uitrollen van nieuwe programmatuur op productie – was voor software engineering revolutionair. Wij weten hoe wij dit slimme principe ook kunnen toepassen op data en modellen. Je krijgt direct feedback en de snelst mogelijke ROI voor jouw slimme applicaties.
Of het nu gaat om lange projecten of korte opdrachten. Met elke consultant krijg jij de kennis van heel Dataworkz tot jouw beschikking om state of the art data platformen of machine learning applicaties te ontwikkelen.
Weet jij niet zeker of je de juiste keuze hebt gemaakt? Wij helpen je met onze experts graag met een second opinion.
Van de eerste stappen in Python tot het maken van je eerste deep learning projecten.
Nu aanmeldenVele datastromen leiden naar Rome. Maar wat past bij jou? Wij bepalen samen de juiste Data …
Nu aanmeldenOnze Microsoft gecertificeerde trainers nemen je mee in de Microsoft wereld van data, AI en ML.
Nu aanmeldenLearn how to apply data science techniques to make strategic business decisions
Nu aanmeldenBecoming a data driven organization, supporting data science initiatives, or running an array of …
Nu aanmeldenKickstarting Deeplearning neemt je mee in de wereld van neurale netwerken.
Nu aanmelden