Hoe zet je Microsoft Copilot verantwoord in binnen je organisatie?

March 17, 2025

Inleiding

Recentelijk is er veel discussie ontstaan rondom het gebruik van Microsoft Copilot. Zo heeft de Rijksoverheid het gebruik van Copilot voorlopig afgeraden naar aanleiding van een privacytoets en heeft de gemeente Amsterdam op basis hiervan besloten geen pilot met Copilot te beginnen. Deze ontwikkelingen roepen natuurlijk veel vragen op over de veiligheid en privacy van Microsoft Copilot bij organisaties die het al gebruiken of willen gaan gebruiken. Is het wel verantwoord of moeten we het toch dichtzetten?

Het simpelweg verbieden voelt misschien verstandig maar kan er net zo makkelijk toe leiden dat medewerkers hun toevlucht zoeken bij gratis AI-tools zoals ChatGPT of Deepseek. En één ding is zeker, bij zulke gratis versies betaal je gewoon met je data. Dan geloven wij dat je van twee kwaden het beste de minste kunt kiezen. Dat neemt natuurlijk niet weg dat je Copilot zo verantwoord mogelijk wilt inzetten en in deze blog staan we stil bij een belangrijke eerste stap om dit te verwezenlijken. 

Wat is Microsoft Purview?

Hoe kun je als organisatie nou inzicht krijgen in hoe medewerkers gebruik maken van Copilot door medewerkers en nagaan of ze dit op een verantwoorde manier doen? Dit begint bij Microsoft Purview, een uitgebreide oplossing voor gegevensbeheer en compliance. Purview helpt bij het beheren, beschermen en monitoren van alle data binnen jouw Microsoft omgeving. Het biedt tools voor gegevensclassificatie, risicoanalyse en beleidsbeheer, waardoor je meer inzicht en controle krijgt over wat medewerkers doen met gegevens. Hieronder staan we expliciet stil bij twee functionaliteiten van Purview die cruciaal zijn bij het waarborgen van verantwoord AI gebruik.

Krijg inzicht in wat medewerkers invoeren

Met Microsoft Purview kun je gedetailleerd inzicht krijgen in de interacties die gebruikers hebben met Copilot. Dit omvat welke prompts worden ingevoerd door medewerkers en welke documenten of datasets worden geraadpleegd om antwoorden te genereren. Door deze interacties te monitoren, kun je potentiële risico's identificeren en ervoor zorgen dat gevoelige informatie niet ongepast wordt gebruikt of gedeeld. Dit proactieve toezicht helpt bij het handhaven van compliance en het minimaliseren van datalekken.

Label welke bestanden Copilot mag inzien

Een andere belangrijke functionaliteit van Purview is de mogelijkheid om documenten te labelen op basis van hun gevoeligheid en relevantie. Door gebruik te maken van veiligheidslabels kunnen organisaties specificeren welke documenten wel of niet door Copilot mogen worden gebruikt bij het genereren van antwoorden. Zo kun je ervoor zorgen dat vertrouwelijke of gevoelige informatie wordt beschermd en alleen toegankelijk is voor geautoriseerde doeleinden. Het labellen van documenten draagt bij aan een gecontroleerde en veilige AI-omgeving binnen de organisatie.

Conclusie

Microsoft Purview vormt de basis voor een verantwoorde implementatie van Copilot binnen iedere organisatie. Het geeft je inzicht in hoe medewerkers omgaan met AI en welke data nou echt gedeeld worden met Copilot.

Benieuwd hoe jullie aan de gang kunnen met Microsoft Copilot of Purview? We denken graag met je mee. Neem gerust contact op via info@quantile.nl of het contactformulier!