DATAREL: project update

Nederland is koploper in Europa op het gebied van transport, logistiek en supply chain. De logistieke sector ondergaat momenteel echter ingrijpende veranderingen. De impact van elektronisch zakendoen, big data en nieuwe technologie is enorm. Het doel van DATAREL (big DATA for REsilient Logistics) is dan ook om innovatieve methoden en technieken te ontwikkelen voor datavergaring en -analyse in de logistieke sector, en om te laten zien hoe die kunnen bijdragen aan het beheersen van steeds dynamischere en complexere logistieke processen. We spraken met Martijn Koot en Rob Bemthuis (beiden Universiteit Twente) over de laatste stand van zaken in dit project.

Slim verzamelen…

Het DATAREL-project startte in 2018 en omvat verschillende werkpakketten die het hele proces beslaan van datavergaring tot concrete veranderingen in logistieke processen. Rob werkt vooral aan de kant van datavergaring, waarbij de vraag naar de relevantie van data een belangrijke rol speelt. “Een sensor kan iedere seconde de temperatuur van een pallet doorgeven,” legt hij uit, “maar heeft dat wel nut? Wanneer is een disruptie groot genoeg om door te geven naar een hoger beslisniveau?” De term disruptie is een centraal begrip in DATAREL: de onderzoekers bedoelen er een relevante schommeling of onverwachte en ongewenste verandering in een variabele mee – bijvoorbeeld een temperatuurschommeling die de kwaliteit van een product in gevaar kan brengen. Projectpartner Ahrma maakt smart pallets met allerlei sensoren voor de bepaling van bijvoorbeeld schok, locatie en temperatuur. Maar het zijn niet alleen sensoren, de pallet bevat intelligentie en kan zelf redeneren. De onderzoekers werken dus aan slimme pallets die zelf een beslismodel aan boord hebben. Afhankelijk van het product op de pallet hanteert het model bepaalde regels, waardoor de pallet zelf kan bepalen wanneer een disruptie relevant is en doorgestuurd moet worden. Zo kan een pallet bijvoorbeeld zelf detecteren dat een lading ijsjes te warm is geworden. In zo’n geval volgt actie: de pallet kan meteen afgeschreven worden, dat scheelt verdere kosten en onnodige bewegingen in de transportketen.

Rob: “Acties die nodig zijn na een disruptie worden nu allemaal bepaald en ingezet door menselijke planners. Dat geeft vertraging, en het is voor een planner ook lastig om op basis van beperkte en mogelijk onbetrouwbare data de juiste beslissingen te nemen. Veel van de keuzes die planners moeten maken zijn goed te benaderen met een logisch model of met wiskunde. Het mooiste is als je de computer inzet voor het zware rekenwerk en de mens voor creatievere taken. Interessant is hoe je de twee weer samenbrengt: een model kan bijvoorbeeld een suggestie geven van de 5 beste oplossingen, waarna de mens de afweging maakt en besluit welke geïmplementeerd wordt.”

… en slim gebruiken

De ontwikkeling van data-gedreven algoritmes is het terrein waar Martijn zich vooral mee bezig houdt. “Met sensoren is het tegenwoordig relatief eenvoudig om op elk moment van de dag van alles te weten over een product. Hoe kunnen we die data nu gebruiken om betere keuzes te maken, efficiëntere logistieke processen in te richten en verstoringen makkelijker op te lossen, of beter nog te voorspellen en vervolgens voorkomen?” Hij gaat verder: “In een ideale wereld gaat ieder transport zoals gepland en heb je geen sensoren nodig. De wereld is echter niet ideaal: er kunnen op heel veel plekken in een logistieke keten problemen ontstaan. Logistieke planners hebben een schat aan ervaring en zijn voortdurend bezig ‘brandjes te blussen’. Die ervaring is van grote waarde: ons onderzoek richt zich er dan ook niet op volledige automatisatie, maar op slimme software die een hoop kleine brandjes blust zodat planners hun handen vrij hebben om de problemen waarbij

menselijke inbreng van belang is te tackelen.” Rob voegt daaraan toe: “De beslissingsmodellen die wij ontwikkelen moeten daarnaast kunnen omgaan met onbetrouwbare en incomplete data”. Het vastlopen van het schip Ever Given in het Suez-kanaal was een gevoelige tik voor de wereldwijde handel maar voor de onderzoekers erg interessant, legt Martijn uit: “In de haven van Rotterdam heeft men in één maand vanuit het niets een digitaal platform gebouwd om komst van de “file” aan schepen die achter de Ever Given vastzat, in goede banen te kunnen leiden. Dat het zo snel kon, geeft aan dat de infrastructuur in de basis allemaal al aanwezig zijn. Dat geldt voor een heel groot deel van de logistieke sector: er ligt een wereld aan data voor het oprapen, maar die wordt nog veel te beperkt gebruikt. Met slimme software kun je signalen oppikken voordat het echt misloopt en snel handelingsopties genereren om problemen op te lossen.”

Testen in de praktijk

Rob herkent dat reeds beschikbare data nog beperkt worden gebruikt. “Veel bedrijven worstelen met de vraag wat ze ermee kunnen. Aan ons de taak om aan te geven wat wel en niet werkt: beide zijn vruchtbare uitkomsten van ons onderzoek. We werken in DATAREL met concrete use cases van projectpartners met ieder hun eigen focus, zoals Locus Positioning, Ahrma, Innovadis, Cape Groep, Ovis Telematics, en Datacadabra. Een aantal partners kende elkaar al: die vertrouwensband is het project zeker ten goede gekomen. Tegelijk hadden bedrijven door corona soms andere prioriteiten - misschien hebben we niet altijd het onderste uit de kan kunnen halen.”

Testen in de praktijk is spannend, vertelt Martijn. “Innovaties moeten zich in de competitieve wereld van de logistiek wel echt bewijzen. En we willen zeker niet dat de resultaten onbedoeld achteruit zouden gaan. Daarom doen we eerst simulaties, maar ik zoek steeds verbinding met de échte praktijk. Feedback van de projectpartners is daarbij belangrijk.”

Sleur-en-pleur

Vanuit DATAREL hebben de onderzoekers bijgedragen aan een aantal andere interessante projecten, waaronder het OpenTrip model. Dit initiatief wordt nationaal gedragen en zal op termijn de wettelijke norm kunnen worden voor datavergaring in de logistieke sector. De hoofdlijn van DATAREL wordt echter gevormd door de use cases uit de praktijk. Die moeten wel leiden tot tools die breed inzetbaar zijn, zegt Rob: “Bij de afronding van het project willen we het liefst een toolbox hebben voor praktische en academische vraagstukken, waarmee logistieke processen veerkrachtiger gemaakt kunnen worden. We zijn sterk voorstander van open science, dus we maken zoveel mogelijk methodes, datasets en modellen (inclusief broncode) openbaar.” Martijn vult aan: “Idealiter ontwikkelen we onze algoritmen zo ver door dat het ‘sleur-en-pleur’ wordt, dus heel laagdrempelig in gebruik. De gebruiker krijgt een boodschappenlijstje voor benodigde data, gooit die in het algoritme en krijgt vervolgens aanbevelingen om processen te verbeteren. Voor we zover zijn is er nog wel wat werk aan de winkel…”


Schrijf u hier in voor onze nieuwsbrief en blijf op de hoogte van het laatste nieuws omtrent Commit2Data.