Achtergrond

Privacyvriendelijk datadelen: een veelbelovende aanpak komt uit de pilotfase

© iStock

Organisaties bezitten gegevens die – wanneer gecombineerd met die van andere – heel waardevolle organisatieoverstijgende informatie bieden, bijvoorbeeld om AI-modellen op te trainen. Een groot obstakel is dat die data niet kunnen worden gedeeld, vanwege privacyoverwegingen of bedrijfsgevoeligheid. Privacy Enhancing Technologies (PET’s) bieden verschillende oplossingen voor dat probleem, maar die worden in de praktijk nog maar mondjesmaat toegepast. Overheden en brancheorganisaties kunnen hier als katalysator optreden.

De zorgsector is een voorbeeld waarin grote voordelen zijn te behalen door modellen op grote datasets te trainen. André Dekker van radiotherapie-instituut Maastro legde jaren geleden al de basis voor een aanpak die inmiddels door zo’n zestig ziekenhuizen wereldwijd wordt toegepast. Dekker noemt het de Personal Health Train: “Het algoritme dat moet worden getraind – de trein – gaat langs de verschillende deelnemers – de stations – in plaats van dat de data worden verzameld op een centrale locatie.” Dekker is daarmee een van de pioniers die werken aan het concept ‘Federated Learning’, een van de PET’s.

Het algoritme dat moet worden getraind – de trein – gaat langs de verschillende deelnemers – de stations – in plaats van dat de data worden verzameld op een centrale locatie.”

Er zijn meer voorbeelden waarin de voordelen van organisatieoverstijgend datadelen duidelijk naar voren komen. In de energiesector kunnen leveranciers op basis van hun gezamenlijke datasets betere voorspellingen maken van piekbelasting op het stroomnet. Bij boringen kunnen accurate modellen worden gemaakt voor de kans op bodemdaling en aardbevingen. In de financiële dienstverlening en telecom zijn patronen in witwaspraktijken en fraude beter in kaart te brengen.

Organisatie en data niet altijd op orde

In al deze gevallen speelt de gevoeligheid van de gegevens een belangrijke rol. Met PET’s zijn daar oplossingen voor, maar die worden nog niet op grote schaal ingezet. De oorzaak ligt vaak in de onduidelijkheid over rollen en verantwoordelijkheden, én het toezicht daarop (governance). Andere veelvoorkomende problemen zijn datakwaliteit en interoperabiliteit van systemen. Wanneer de data niet goed zijn ontsloten, moet vaak flink worden geïnvesteerd om ze geschikt te maken. Daarom is het belangrijk om te beginnen met de precieze formulering van de vraag die voorligt. Dan is duidelijk welke data aangepast moeten worden aan de FAIR-principes: Findable (vindbaar), Accessible (toegankelijk), Interoperable (uitwisselbaar), Reusable (herbruikbaar). “Zo voorkom je dat je data FAIR gaat maken, die je daarna nooit gebruikt”, zegt Dekker.

Toon Segers heeft vanuit zijn achtergrond in de wiskunde al jaren een passie voor cryptografie. Die zette hij onder meer in voor de AIVD en twee consultancybureaus. Inmiddels is hij terug bij de TU Eindhoven en heeft van daaruit met twee medeoprichters de spin-off Roseman Labs opgezet. Daar hebben ze het idee van Multi-Party Computation (zie kader) verder uitgewerkt en bieden de technologie nu aan in sectoren als de nationale veiligheid, de zorg, de financiële dienstverlening en de publieke dienstverlening. “Mensen zien het concept snel als veelbelovend, maar vinden het ook best abstract qua technologie en concrete toepassingen.”

In veel gevallen moet er een coalitie worden gevormd om te kunnen samenwerken, waarbij er onderling vertrouwen moet ontstaan. “Daarnaast heb je juridische vraagstukken en compliance die je goed moet analyseren voor elke specifieke casus.” Een implementatie is dus veelomvattend, zeker omdat er ook technologie moet worden ingebed in bestaande processen. Vanwege het grote potentieel, beargumenteert Segers, verdient privacybevorderende technologie een plek te krijgen in het stimuleringsbeleid van de overheid – naast AI en quantum en fotonica.

© iStock

Hoe zijn die obstakels weg te werken?

Aansprekende voorbeelden en aantoonbare successen zijn nodig om het gebruik van PET’s een vlucht te laten nemen, blijkt uit het rapport ‘Sustainable Revenue Models for Data Sharing Initiatives’ opgesteld door Jheronimus Academy of Data Science (JADS) van de Tilburg University. Segers zegt daarover: “Met kleine, slimme investeringen van een paar miljoen kan een vliegwiel-effect ontstaan. De overheid zou ook als launching customer kunnen optreden.”

Met kleine, slimme investeringen van een paar miljoen kan een vliegwiel-effect ontstaan.”

Bovendien helpt de verscherpte aandacht voor bescherming van gevoelige data vanuit wetgeving zoals de AVG en de AI Act om organisaties bewust te maken en op zoek te gaan naar oplossingen. Het is dan wel belangrijk dat de overheid duidelijke voorschriften formuleert over wanneer datadelen met PET’s is toegestaan, stellen de auteurs van het JADS-rapport.

Daarnaast spelen ook juristen, privacy officers, managers en bestuurders binnen organisaties een belangrijke rol. “Als deze sleutelpersonen zich hardmaken voor het gebruik van PET’s, neemt de slaagkans aanzienlijk toe”, stellen de auteurs van het onderzoeksverslag ‘De weg naar veilig datadelen’. Strategie‑ en managementadviesbureau INNOPAY/Oliver Wyman voerde dit onderzoek uit in opdracht van het ministerie van Economische Zaken. Uit een aantal succesvolle praktijkcases die in dit rapport worden besproken, komt een aantal organisatorische en samenwerkingsgerichte adviezen, zoals:

  • Zorg voor heldere governance
  • Leg een duidelijke verdeling van verantwoordelijkheden vast
  • Verspreid succesvolle PET-toepassingen
  • Werk aan een modern IT-landschap

Technologisch gezien kan er al veel met PET’s, maar er valt ook nog te verbeteren, bijvoorbeeld wat betreft gebruiksvriendelijkheid, vindt Madelon Molhoek. Zij is PET-expert bij TNO met veel ervaring in het ontwikkelen van proof-of-concepts in diverse projecten. “In de praktijk heb je toch nog vaak specialisten met een developerachtig profiel nodig om PET succesvol in te zetten.” Zij ziet op dat vlak wel beweging komen en noemt als voorbeelden de innovatiebedrijven BlueGen, Syntho, Almende, Roseman Labs en Linksight. Ook juridisch gezien is Europa in beweging wat betreft PET’s en het gebruik van privégegevens, waarbij in de Europese Data Union Strategy zelfs wordt gesproken dat er nu grote fabrieken moeten komen voor de productie van synthetische data.

In de praktijk heb je toch nog vaak specialisten met een developerachtig profiel nodig om PET succesvol in te zetten.”

Nederland koploper in nichetoepassingen?

Nederland heeft een sterke uitgangspositie om wereldwijd een belangrijke rol te krijgen bij het faciliteren van PET. Volgens het INNOPAY/Oliver Wyman-rapport behoren instituten als TU/e, TU Delft, UT, CWI en TNO tot de wereldtop. Maastro/Maastricht UMC heeft volgens de auteurs een voortrekkersrol in kankeronderzoek met nieuwe technologische oplossingen op basis van privacy-by-design. Het rapport stelt dat Nederland ten opzichte van het buitenland uitblinkt in de praktische toepassing van synthetische data, Multi-Party Computation (MPC), Homomorfe encryptie (HE) en Federated Learning. De auteurs plaatsen daarbij wel een kanttekening dat het Nederlandse ecosysteem zich vooral richt op de bovengenoemde PET’s terwijl internationale marktrapporten relatief meer groei voorspellen voor andere PET’s zoals differential privacy, ZKP en TEE. Is hier sprake van een structurele mismatch, vragen de auteurs zich af, of heeft Nederland juist een unieke niche-positie opgebouwd die internationaal verder benut kan worden? Zij vinden dat de overheid dit verder moet onderzoeken om hierop een strategie te ontwikkelen.

© iStock

Privacy-Enhancing Technology (PET) uitgelegd

PET bestaat uit een familie van technologieën met als doel om gegevens te kunnen delen zonder dat gevoelige informatie weglekt naar de deelnemers. Een aantal belangrijke PET’s zijn:

Differential Privacy (DP)

Met deze PET-variant wordt aan de data van de deelnemers op een gecontroleerde manier ruis toegevoegd zodat analyses op groepsniveau kloppen, maar individuele data niet kunnen worden herleid.

Federated Learning (FL)

De data van elke deelnemer aan een consortium met een gezamenlijke vraag, verlaten de organisatie niet. Het algoritme gaat langs elke deelnemer en wordt ter plekke getraind.

Homomorfe encryptie (HE)

Homomorfe encryptie is een vorm van versleuteling die het voor een derde partij mogelijk maakt berekeningen op de versleutelde data uit te voeren, dus zonder die eerst te ontsleutelen. De uitkomsten zijn ook versleuteld en alleen de sleutelhouder kan het eindresultaat zichtbaar maken.

Multi-Party Computation (MPC)

Multi-Party Computation, ook vaak ‘Secure Multi-Party Computation’ genoemd, is een cryptografische techniek waarmee meerdere partijen samen een berekening kunnen uitvoeren op hun gecombineerde data, zonder dat ze hun individuele input aan elkaar onthullen. Ze voeren dan een protocol uit waarbij elke partij de eigen input in versleutelde vorm inbrengt (secret sharing).

Synthetic Data

Dit zijn meestal door AI gegenereerde kunstmatige datasets met vergelijkbare statistische eigenschappen als de brondata, maar zonder echte persoonlijke records.

Trusted Execution Environments (TEE)

Een TEE is een afgeschermde, hardware‑geïsoleerde omgeving binnen een processor (bijv. Intel SGX, ARM TrustZone) waar code en data beschermd zijn tegen de rest van het systeem. Hiermee kunnen gevoelige berekeningen worden uitgevoerd, zelfs als de machine‑eigenaar niet volledig vertrouwd is.

Zeroknowledge proofs (ZKP)

Zero‑knowledge proofs zijn cryptografische protocollen waarmee iemand kan bewijzen dat een bewering waar is, zonder de gedetailleerde informatie prijs te geven. De technologie wordt bijvoorbeeld toegepast om te bewijzen dat iemand ouder is dan 18, zonder geboortedatum of naam te tonen.

Federated Modeling

Sebastien Gallet en Julja Prodani ontwikkelden in 2025 voor DNB een aanpak voor Europese centrale banken waarbij de output van eigen, lokaal getrainde modellen wordt geaggregeerd tot een Europees model om bijvoorbeeld forecasting, stresstests en beleidssimulaties te kunnen doen. In de financiële sector, en zeker bij centrale banken, zijn data sterk beschermd door wet- en regelgeving. Vaak mogen gegevens die voor één missie zijn verzameld, niet voor een ander doel worden gebruikt, laat staan gedeeld.
De aanpak van Gallet is gevalideerd op datasets van Nederlandse banken en verzekeraars, maar nog niet in een internationale praktijkproef.

Toepassing FL bij Actuals

Traditionele ERP’s zijn niet goed in het verwerken van hoogvolume transactiestromen. De oplossing zit dan in het boeken van geaggregeerde transacties. Het gaat mis wanneer er een verschil zit tussen de orderbedragen en de betalingen. Omdat de details van de transacties niet meer in de geaggregeerde boekingen terugkomen, is niet terug te halen welke betalingen misgaan. Fintechbedrijf Actuals ontwikkelde een softwarelaag tussen betalingssystemen en het ERP van klanten waaruit wel de ‘financial truth’ kan worden afgeleid. Het terugzoeken van onregelmatigheden kan in grote datavolumes alsnog complex en arbeidsintensief zijn. Boekingsverschillen zijn echter in verschillende categorieën in te delen en de inzet van AI kan daarbij helpen. Peter Lem, CTO bij Actuals, legt uit dat in een door RVO gesteund project Federated Learning is ingezet om voor dat doel de AI te trainen op data van verschillende klanten, zonder dat die data hun eigen beveiligde omgeving verlieten.

Onderwerp: Ai

Meer relevante berichten