De big data wereld is veranderd. Dat bleek wel tijdens de gecombineerde Commit2Data / VWData sessie op het ICT.open congres. Inald Lagendijk, boegbeeld van het VWData programma constateerde dit halverwege de sessie. Nog maar een paar jaar geleden zouden alle presentaties alleen maar gericht zijn op de fantastische mogelijkheden van big data. Optimistisch en hoopvol, maar ook een beetje naïef. Anno 2018 adresseren alle presentaties de impact van die mogelijkheden en de vragen die je daarbij kunt stellen. En anders doet het publiek dat wel.

Zo presenteerde André Dekker van het Maastricht Universitair Medisch Centrum het dilemma in de gezondheidszorg. Er is nog zóveel te bereiken in bijvoorbeeld de oncologie, en er is ook zóveel data beschikbaar. Het punt is dat er veel redenen zijn waarom die data niet zomaar op een hoop gegooid kan worden. De oplossing: breng het onderzoek naar de data, in plaats van de data naar het onderzoek te brengen. Een mooie aanpak, waarvoor echter nog wel heel wat onderzoek nodig is. Hoe doe je dat precies? Het gebruik van zogenaamde ‘FAIR data stations’ is een belangrijk deel van de oplossing, die niet alleen in de gezondheidszorg maar ook in veel andere domeinen nuttig gaat zijn.

Een andere bijdrage vanuit VWData werd door Marc Steen van TNO geleverd. Hij presenteerde de elementen van een ethisch raamwerk dat praktisch toegepast kan worden. Belangrijke concepten daarbij zijn ‘agency’, de mate waarin de eindgebruiker technologie kan gebruiken zonder daarbij gedwongen te worden tot keuzes, ‘transparency’, de mate waarin gebruikers technologie kunnen begrijpen en doorzien, en ‘accountability’, dat het gebruik van de technologie ook verantwoord en uitgelegd kan worden in juridische en ethische termen. In de hierop volgende gedachtenuitwisseling met het publiek bleek hoeveel voorbeelden van ‘slechte’ algoritmen er te bedenken waren, wat aangaf dat het onderwerp voorlopig nog niet afgerond is.

Tot slot presenteerde Georgios Stathis van Universiteit Leiden de rol van data en machine learning in de juridische praktijk. De wereld van ‘legal tech’ is snel groeiend: wereldwijd zijn er al meer dan 5000 startups mee bezig. Interessante issues werden neergelegd zoals het risico dat de wet net zo gecompliceerd wordt als de financiële wereld, zodat we Artificial Intelligence nodig hebben om de wet nog te kunnen uitvoeren. Kunnen we ons een ‘kunstmatige advocaat’ voorstellen en zou dat werken? Conclusie van de hierop volgende discussie was dat er zoveel haken en ogen aan zitten dat een combinatie van automatisering en menselijk handelen in deze wereld altijd gewenst zal blijven.

Deze eerste ‘publieke confrontatie’ van de VWData onderwerpen heeft ons gesterkt in de overtuiging dat het programma geen moment te vroeg komt en dat er grote behoefte is aan antwoorden op de vragen naar Responsible Data Science.

Voor de NWA-route Waardecreatie door verantwoorde toegang tot en gebruik van big data (VWData) is vanuit de ministeries van OCW en Defensie subsidie beschikbaar gesteld voor een aanvullende onderzoeksactiviteit rondom “uitlegbare veilige Artificial Intelligence in het militaire domein”. De financiering is bestemd voor een onderzoeksproject dat de vraag adresseert hoe een AI systeem beveiligd kan worden tegen ontregeling en tegelijkertijd transparant kan zijn. 

Binnen de door het ministerie van OCW geïnitieerde Startimpuls van de Nationale Wetenschapsagenda in 2017 waren middelen gereserveerd voor extra initiatieven rondom de Nationale Wetenschapsagenda in samenwerking met vakdepartementen.De onderzoeksactiviteit “uitlegbare veilige Artificial Intelligence in het militaire domein” is hiervan een van de resultaten.

Moderne, maar ook traditionele AI oplossingen, blijken vatbaar voor subtiele ontregelingen van buitenaf. Zo kunnen diepe neurale netwerken met voor de mens niet waarneembare manipulaties van input op het verkeerde been gezet worden. Dit speelt onder andere in beeldverwerkende AI, zoals aanwezig in autonoom rijdende voertuigen. Minuscule ruisinjecties in inputs kunnen in dergelijke toepassingen leiden tot het foutief herkennen van verkeersborden, met alle gevolgen van dien. Daarnaast kunnen machine learning modellen ‘op afstand’ worden uitgelezen door input/output gedrag uit te lokken, of worden gemanipuleerd van buitenaf, een reëel gevaar omdat steeds meer AI beschikbaar komt als (cloud) service.

Beveiligen van AI

Het beveiligen van AI is daarmee een onderwerp dat steeds belangrijker wordt op de onderzoeksagenda van techbedrijven als Google, Facebook en Tesla, en de academia. Maatregelen voor het garanderen van privacy met AI (zoals federated machine learning, of homomorfe encryptie) beveiligen de gebruikers van AI-systemen. Beide soorten beveiliging (de AI zelf, en de privacy van gebruikers) voegen echter extra opaciteit toe aan AI-systemen, via -soms destructieve, niet-reversibele- versleuteling van data of algoritmes. Tegelijkertijd neemt in de AI-wereld de roep om uitlegbaarheid toe, onder andere in de context van operator-intensieve toepassingen zoals defensie. De vraag is dus hoe een AI systeem zowel tegen manipulatie beveiligd kan worden, als tegelijkertijd uitlegbaarheid toestaat.

Een deel van de beschikbare middelen voor dit project zijn bestemd voor onderzoeksactiviteiten van TNO. Een ander deel is beschikbaar voor complementaire aansluiting van andere kennisinstellingen op het TNO onderzoeksproject  (bijlage I). De omvang van deze aanvullende subsidie is 100 kEUR. De oproep voor dit aanvullende deel van het onderzoeksproject staat open voor bij de Kenniscoalitie aangesloten publieke kennisinstellingen: Nederlandse universiteiten, KNAW- en NWO-instituten en Hogescholen.

Tijdslijn
2 april 2018   Sluiting van de indiening van onderzoeksvoorstellen.
6 april 2018   Prioritering van de voorstellen door de Stuurgroep van VWData en het Ministerie van Defensie

Medio april 2018 Toekenning van de subsidie door NWO.

Meer informatie
De volledige projectbeschrijving en call for proposals is terug te lezen op de website van Dutch Digital Delta.
Voor vragen kun u terecht bij:

Prof. dr. ir. R.L. (Inald) Lagendijk
Boegbeeld NWA Route VWData

 

Astrid Zuurbier
Secretaris Stuurgroep VWData

Het VWData startimpulsprogramma bestaat uit verschillende onderzoeksteams die zich richten op een gezamenlijk vraagstuk: Hoe kunnen we Big Data inzetten op een manier die juridisch en ethisch verantwoord en maatschappelijk acceptabel is?

Programmaleider Inald Lagendijk gaf aan hoe de uitvraag voor de Nationale Wetenschapsagenda resulteerde  in 11700 vragen, die geclusterd zijn in 140 Grote Vragen, die op hun beurt weer in 25 ‘routes’ zijn gecombineerd, en hoe daaruit 8 routes zijn geselecteerd om middels een ‘Startimpuls’ hun bestaansrecht op de kaart te zetten.

Relevant voor wetenschap en maatschappij

Het VWData programma, voluit “Verantwoorde Waardecreatie met Big Data”, komt voort uit de Big Data Route. Het programma concentreert zich op twee belangrijke concepten: FAIR (Findable, Accessible , Interoperable, Reusable) data, en FACT (Fair,  Accurate, Confidential, Transparent) data science. Een buitengewoon relevant thema: het zal moeilijk zijn om een krant of een journaaluitzending te vinden waarin er niét “iets met data” aan de hand is.

Het programma zal niet alleen goede wetenschap bedrijven om zijn doelen waar te maken. Minstens zo belangrijk is dat ambassadeurs voor FACT en FAIR er voor zorgen dat zowel wetenschap als maatschappij verder bouwen op de VWData inzichten en resultaten. Daarom zal het programma óók contacten leggen met andere routes binnen de Nationale Wetenschapsagenda, maatschappelijke organisaties, nationale en internationale initiatieven linken.

Het VWData startimpulsprogramma bestaat uit verschillende onderzoeksteams. Fotografie: Elodie Burrillon / HUCOPIX
Programmaleider Inald Lagendijk
Programmaleider Inald Lagendijk. Fotografie: Elodie Burrillon / HUCOPIX

 

Juridische, ethische en maatschappelijke vraagstukken

De kick-off startte natuurlijk met het presenteren van de projecten waaruit VWData opgebouwd is. Een korte greep uit die projecten (op de website www.vw-data.nl staat de volledige lijst met projecten en onderwerpen) geeft bijvoorbeeld aan dat bias één van de onderwerpen is: hoe percipiëren nieuwsconsumenten hun filter bubble? En is daar wat tegen te doen? Dicht daarbij ligt het onderwerp hoe je bias in nieuwsberichten zélf kunt opsporen; kun je bijvoorbeeld geautomatiseerd vaststellen hoe het met het diversiteitsgehalte in ons nieuws staat? Of de ‘toxiciteit’ van een bijdrage aan een forum bepalen?

Lora Aroyo presenteert het project ‘Capturing Bias’ Fotografie: Elodie Burrillon / HUCOPIX

Privacy is natuurlijk een ander belangrijk onderwerp. Het duurde niet lang voordat de GDPR genoemd werd, de General Data Protection Regulation die op 25 mei in Nederland van kracht gaat. Bijvoorbeeld bij het project dat netwerkdata wil analyseren – maar dan wél privacy-vriendelijk. Het verzamelen van data is überhaupt iets waarbij privacy altijd een rol speelt, en één van de projecten gaat dan ook expliciet in op de vraag of je daarvoor een ethisch afwegingskader kunt maken.

Opvallende observatie bij een project dat vooral op transparantie ingaat: soms is veel transparantie juist niét gunstig voor het vertrouwen dat gebruikers hebben in de geleverde dienst. Een mooie uitdaging voor het betreffende project…

Tot slot is het natuurlijk de vraag hoe al die data analyses kunnen worden uitgevoerd op zó’n manier dat er niet meer met de data gesleept hoeft te worden dan strikt nodig: van sommige gevoelige data (bijvoorbeeld medisch) wil je niet dat die het ziekenhuis verlaat. Het uitwerken van een aanpak waarbij het algoritme naar de data reist (en niet andersom) is een aanpak daarbij.  Er werden mooie nieuwe woorden gebruikt  als ‘FAIRification’ en ‘ FACTification’. Als je gedistribueerde data hebt, wil je ook wel weten of je data FAIR zijn. Heb je daar metrieken voor?


Meer dan een verzameling deliverables

Presenteren van de projecten is één; zorgen dat die projecten samen méér worden dan een verzameling deliverables is iets anders. Tijdens de kick-off is er daarom veel ruimte gereserveerd om te brainstormen over ‘overkoepelende demonstrators’ – hoe kunnen we de concepten van Verantwoorde Waardecreatie met Data laten zien op een aansprekende manier? Het zijn de verhalen die VWData gaat vertellen en de discussies die daardoor teweeggebracht worden, die er voor zorgen dat het programma met recht een Startimpuls genoemd kan worden.

Brainstormen over ‘overkoepelende demonstrators’ Fotografie: Elodie Burrillon / HUCOPIX

 

In een vijftal groepen hebben de aanwezigen de eerste ideeën voor die verhalen geformuleerd.  Er kwamen tools voorbij om mensen te helpen echte ‘FACT & FAIR services’ te ontwerpen, marktplaatsen, bijsluiters met stoplicht-indicatoren bij algoritmen, video’s waarin (een deel van) de 11700 vragen worden beantwoord, FACTathons, en nog veel meer. Opvallend was dat enerzijds de ‘schotjes’ tussen de projecten helemaal wegvielen bij de discussie, maar dat de ideeën ook nog wel wat generiek van aard waren.

Pitches over ‘overkoepelende demonstrators’ Fotografie: Elodie Burrillon / HUCOPIX

 

Op weg naar nieuwe en nóg betere vragen

De kick-off heeft gelukkig meer vragen opgeleverd dan antwoorden: de onderzoekers zullen hier de komende twee jaar hun handen meer dan vol aan hebben. Waarschijnlijk liggen er na die tijd naast een stapeltje antwoorden ook vooral weer nieuwe en nog betere vragen – zoals het een goede startimpuls betaamt!

Getekend verslag vatte de dag samen in een kunstwerk. Fotografie: Elodie Burrillon / HUCOPIX

 

Meer informatie
Raadpleeg voor meer informatie over de NWA-route ‘Waardecreatie door verantwoorde toegang tot en gebruik van big data’ de website: www.vw-data.nl.

Onderdeel van de route Waardecreatie door verantwoorde toegang en gebruik van big data
Hoofdaanvrager: Prof. dr. ir. R.L. (Inald) Lagendijk, Technische Universiteit Delft

Big Data speelt een grote rol in onze maatschappij, in het bedrijfsleven en in de wetenschap. Steeds meer keuzen en besluiten worden gebaseerd op de analyse van verzamelde gegevens. Het is echter vaak niet duidelijk wie kan en mag beschikken over de gegevens, hoe analysemethoden precies werken en hoe nauwkeurig ze zijn, en hoe Big Data op een manier kan worden ingezet die juridisch en ethisch verantwoord en maatschappelijk acceptabel is. Het themaprogramma VWData geeft een impuls aan wetenschappelijk onderzoek en aan technische en maatschappelijke oplossingen voor het verantwoord omgaan met Big Data.

Aanpak

Elk werkpakket concentreert zich op een specifiek aspect van de uitdaging “verantwoorde toegang tot en gebruik van big data”. De termen FACT en FAIR data science staan als overkoepelende begrippen centraal. FACT verwijst naar verantwoorde data science wat betreft Fairness, Accuracy, Confidentially en Transparency. FAIR verwijst naar de eigenschappen die onderzoeksdata zouden moeten hebben om optimaal gebruikt te kunnen worden: Findable, Accessible, Interoperable, Re-usable.

Binnen elk project richten de onderzoeksactiviteiten zich steeds op een specifiek maatschappelijk, economisch of wetenschappelijk use case. Het programma is zo samengesteld dat waardecreatie in drie domeinen plaatsvindt: informatiediensten/media, gezondheidszorg en veiligheid. Zo wordt tegelijkertijd een impuls gegeven aan het kennis- en innovatiesysteem op het gebied van data science in de breedte én van geselecteerde domeinen. Gedurende twee jaar worden ook verschillende symposia georganiseerd voor wetenschappers, bedrijfsleven en politiek. Ook zullen er publicaties verschijnen met de belangrijkste inzichten en aanbevelingen voor de toekomst. De overkoepelende activiteiten worden gecoördineerd door het Netherlands eScience Center, TNO en NWO.


Subprojecten

De verschillende subprojecten staan hieronder kort beschreven.

(1) FairNews: Nieuwsvoorziening in een Big Data Data tijdperk
Contactpersoon: prof. dr. C.H. (Claes) de Vreese (UvA)

Gelijke toegang tot nieuws is een randvoorwaarde voor een goed functionerende democratie. Door data analytics en gepersonaliseerde aanbevelingen is het mogelijk nieuws vóór te sorteren op basis van individuele gebruikersprofielen en ‘social sorting’. In dit project wordt onderzocht in hoeverre algoritmen kunnen en mogen gaan in het filteren van informatie met het oog op “fairness”. ls toegang tot informatie niet gelijk, dan kan dit grote gevolgen hebben voor de vrijheid van meningsuiting en non-discriminatie. Dit onderzoek draagt ook bij aan het kunnen uitleggen waarom algoritmen bepaald gedrag vertonen, i.c. transparantie. De resultaten leiden tot een fair-recommender systeem dat vooringenomenheid van nieuwsaanbevelingen zichtbaar maakt. In dit project werken informatici, communicatie- en informatierechtswetenschappers van de UvA en TU Delft samen met de Volkskrant aan demonstraties en tests met nieuwsgebruikers om het debat over eerlijke nieuwsvoorziening te stimuleren. De bevindingen van dit project dragen ook in hoge mate bij aan het programmabrede begrip van wat we bedoelen met verantwoorde toegang toe en gebruik van big data.

(2) Capturing Bias: Diversity-aware Computation for Accurate Big Media Data Analysis
Contactpersoon: Prof. dr. L.M. (Lora) Aroyo (VU)

Dit project richt zich op het bereiken van betrouwbare en uitlegbare big data analyse van mediabestanden. In het bijzonder zullen er metrieken worden ontwikkeld die aangeven hoe nauwkeurig de resultaten van de big data analyse zijn. Hierbij wordt gebruik gemaakt van onder andere crowd-sourcing van de mening van burgers. Waar in het eerdere project de nadruk ligt op het bereiken van “fairness”, ligt hier de nadruk op het kwantificeren van de mate van “accuracy”, relatie tot andere waarden zoals diversiteit en het vervolgens visualiseren van de resulterende complexiteit van besluitvorming in de media analyse. In het project werken informatici, mediawetenschappers en bestuurskundigen van de VU, Universiteit Utrecht, Leiden Universiteit en TU Delft samen met het Instituut Beeld&Geluid aan use-cases en technische demonstraties. Hiermee wil het project niet alleen wetenschappelijke vooruitgang boeken, maar ook handelingsperspectief bieden voor nieuwe vormen van presentatie en communicatie over de resultaten van big data analysetechnieken.

(3) Enabling of privacy-friendly analysis of network data and beyond
Contactpersoon: J.E.J. (Joeri) de Ruiter (RU)

Hedendaagse big data analyse kenmerkt zich niet alleen door de vereiste enorme rekenkracht, maar ook de breedbandige netwerkverbindingen tussen computer en “de cloud”. Dit netwerkverkeer bevat veel privacy gevoelige informatie, van de gebruikte termen in zoekmachines tot persoonlijke medische informatie. Recent onderzoek naar pseudonimisering heeft grote vooruitgang laten zien dank zij de aanpak van Polymorfe Encryptie en Pseudonimisatie (PEP). Dankzij PEP kan data bij een lek niet zomaar gecombineerd worden, terwijl geoorloofde deling van data wel mogelijk is. In dit project werken informatici van Radboud Universiteit en Universiteit van Twente samen met SURF om deze techniek verder te ontwikkelen zodat grote hoeveelheden data op hoge snelheid gepseudonimiseerd, gedeeld, en geanalyseerd kunnen worden op privacy-vriendelijke wijze. De resultaten van dit project zijn technisch van aard en kunnen gezien worden als bouwsteen voor project bouwsteen voor de laatste twee projecten (zie verderop), terwijl de andere beschreven projecten juist ethische, juridische en maatschappelijke input kunnen leveren voor dit project in het bereiken van de gewenste mate van privacy en pseudonimisering.

(4) Responsible Collection and Analysis of Personal Data for Justice and Security
Contactpersoon: dr. M. (Marc) Steen (TNO)

Juist in het veiligheidsdomein is steeds vaker de vraag in hoeverre veiligheidsdiensten transparant en aansprakelijk moeten zijn in het omgaan met persoonlijk big data, zoals zoektermen en openbare surveillance. Dit leidt tot verschillende dilemma’s rond veiligheid, data protection wetgeving, eerlijkheid en rechtvaardigheid. Het is noodzakelijk tijdig deze dilemma’s te doordenken, en voor VWData om een beeld hierover te vormen. Dit project draagt daarom in hoge mate bij aan de programmabrede ontwikkeling van verantwoord omgaan met big data. Onderzoekers van TNO, Politieacademie en TU Delft ontwikkelen toekomstige scenario’s en gaan middels demonstraties de dialoog aan met belanghebbenden in de wetenschap, overheid en industrie.

(5) Data-gedreven diensteninnovatie: compliancy en transparency ‘by design’
Contactpersoon: Dr. ir. M (Marlies) van Steenbergen (HU)

Om FAIR en FACT te bereiken, moeten leveranciers van data-gedreven diensten voldoen aan de regels over databescherming, en in het bijzonder aan concrete eisen van transparantie van algoritmische besluitvorming in de General Data Protection Regulation (GDPR). Dit project volgt de value-sensitive design aanpak als ontwikkelingsmethode voor data-gedreven diensteninnovatie. Ten opzichte van de andere – meer wetenschappelijk – projecten in VWData, richt dit project zich op de concrete operationalisatie van de wettelijke eisen in één of meer concrete data-gedreven diensten die als use-cases kunnen dienen in de andere projecten. Daarmee dragen de onderzoekers van de HBO’s Fontys, Utrecht en Zuyd en de Open Universiteit bij aan het concreet maken van onderzoeksresultaten en levert dit nieuwe verbindingen met universiteiten en andere kennisinstellingen op.

(6) Distributed FAIR information systems to enable federated learning and reasoning
Contactpersoon: prof. dr. ir. C.T.A.M. (Cees) de Laat (UvA)

Databronnen van verschillende eigenaren nemen aanzienlijk in waarde toe wanneer ze gecombineerd kunnen worden. Echter, veelal is de data te omvangrijk of te kwetsbaar om naar buiten gebracht te kunnen worden. Om die reden nemen federatieve oplossingen voor big data analyse sterk in belangstelling toe. In dit project werken informatici van UvA, VU, Universiteit Leiden en TNO samen met een reeks toepassers (zoals levenswetenschappers in GO-FAIR en ASTRON) bij het ontwikkelen van de architectuur voor een netwerk van FAIR data-hubs en services. De resulterende architectuur biedt leer- en redeneerprocessen met volledige transparantie, en anticipeert op heterogene data met verschillende betrouwbaarheden. Het project levert servicedemonstraties gebaseerd op een federatie van ten minste drie verschillende data-hubs. Dit project steunt op kennis over privacy, fairness en accuracy uit de andere projecten.

(7) Analyzing partitioned FAIR health data responsibly
Contactpersoon: Prof. dr. M (Michel) Dumontier (UM)

Waar in het vorige project de nadruk op de architectuur van federatieve oplossingen ligt, concentreert dit project zich op het federatieve learning framework, en op de ethische, juridische en maatschappelijke aspecten daarvan. Het project richt zich op het federatief gebruik van alle data in de “Maastricht study” (10,000 burgers) en gerelateerde CBS-data om te komen tot begrip van de relaties tussen diabetes, lifestyle, en socio-economische factoren. Het project, dat uitgevoerd wordt door informatici, medici en ethici van de Universiteit Maastricht, sluit aan bij het nationale “Personal Health Train” initiatief. Dankzij de synergie op het gebied van algoritmische, juridische en ethische vraagstukken, biedt dit de overige projecten de kans op nieuwe verbindingen in de medische sector. Tegelijkertijd kan zal in dit project juist worden geleerd van use-cases in andere domeinen, zoals veiligheid en media- en informatiediensten.

 

Consortiumleden

Het consortium bestaat o.a. uit: Erasmus Universiteit Rotterdam, Leids Universitair Medisch Centrum, Open Universiteit, Radboud Universiteit, Technische Universiteit Delft, Technische Universiteit Eindhoven, UMC Maastricht, Universiteit Leiden, Universiteit Maastricht, Universiteit Twente, Universiteit Utrecht, Universiteit van Amsterdam, Vrije Universiteit Amsterdam, Wageningen Universiteit en Researchcentrum, Instituut voor Informatierecht (IViR), Data Science Center Eindhoven (DSC/e), Netherlands eScience Center, SURF, TNO, Fontys Hogeschool, Hogeschool Utrecht, Hogeschool van Amsterdam, Zuyd Hogeschool, Ministerie van Justitie en Veiligheid.

 

De impact van de explosief groeiende hoeveelheid en diversiteit van gegevensbestanden – big data – is zichtbaar in alle sectoren van de samenleving. Van het automatisch detecteren van cybercriminaliteit tot aan het verbeteren van de efficiëntie van de gezondheidszorg: in vrijwel alle facetten van de wetenschap, economie en maatschappij groeit de impact van grootschalige gegevensbestanden.

Big data is niet alleen ‘veel data’; het betekent ook nieuwe combinaties van data en continue stromen van gegevens, die nieuwe eisen stellen aan infrastructuur en technieken, aan mensen die met deze data werken, en aan de samenleving die ze implementeert.

De revolutionaire kracht van big data ligt in het combineren van een veelheid aan verschillende gegevens. Dit lukt alleen als databestanden open en toegankelijk zijn. Dat betekent echter wel dat we verantwoord met deze gegevens moeten omgaan. Het doel voor het komende decennium is daarom het ontwikkelen van de juiste instrumenten en infrastructuur voor verantwoorde toegang en gebruik van big data en daarmee waarde te creëren in economische, maatschappelijke en wetenschappelijke domeinen. De komende jaren moeten we inzetten op:

Het stimuleren van waardecreatie in toepassingsdomeinen
Dit kan door het opzetten van proeftuinen en grootschalige privaat-publieke valorisatieprojecten. Het big data ecosysteem zou duurzaam kunnen worden versterkt door toolbox projecten, technologie transfer initiatieven, het bevorderen van personele mobiliteit, en multidisciplinaire kennisdisseminatie.

Het scheppen van mogelijkheden voor multidisciplinair onderzoek
Het onderwijs en het wetenschappelijke fundament van big data moeten worden versterkt en verbreed in de richting van data science dat ingebed is in alle toepassingsgebieden.

Lees meer over deze route in het Portfolio voor Onderzoek en Innovatie en/of de brochure ‘VWData: Verantwoorde Waardecreatie met Big Data‘, over het NWA-Startimpulsprogramma van de Big Data route.