OpenAI onthult Privacy Filter, een model voor het detecteren en redigeren van PII met geavanceerde nauwkeurigheid. Nu beschikbaar voor ontwikkelaars. (Lees meer)OpenAI onthult Privacy Filter, een model voor het detecteren en redigeren van PII met geavanceerde nauwkeurigheid. Nu beschikbaar voor ontwikkelaars. (Lees meer)

OpenAI lanceert privacyfilter voor PII-detectie en -redactie

2026/04/24 23:27
3 min lezen
Voor feedback of opmerkingen over deze inhoud kun je contact met ons opnemen via crypto.news@mexc.com

OpenAI lanceert Privacy Filter voor detectie en redactie van PII

Caroline Bishop 24 apr 2026 15:27

OpenAI introduceert Privacy Filter, een model voor het detecteren en redigeren van PII met geavanceerde nauwkeurigheid. Nu beschikbaar voor ontwikkelaars.

OpenAI lanceert Privacy Filter voor detectie en redactie van PII

OpenAI heeft de Privacy Filter geïntroduceerd, een nieuw open-weight AI-model dat is ontworpen om persoonlijk identificeerbare informatie (PII) in tekst te detecteren en te redigeren. Het hulpmiddel werd uitgebracht op 23 april 2026 en biedt geavanceerde nauwkeurigheid voor privacyworkflows, waarmee een nieuwe standaard wordt gezet voor de bescherming van gevoelige gegevens.

De Privacy Filter is bedoeld om langdurige uitdagingen bij PII-detectie aan te pakken door traditionele regelgebaseerde systemen te overstijgen. In tegenstelling tot oudere tools die vertrouwen op deterministische patronen voor formaten zoals telefoonnummers of e-mailadressen, gebruikt dit model geavanceerd taalbegrip om ongestructureerde tekst te analyseren en contextbewuste beslissingen te nemen. Het kan bijvoorbeeld onderscheid maken tussen openbare en privé-informatie, een cruciale mogelijkheid in genuanceerde privacyscenario's.

Een van de opvallende functies is de mogelijkheid om lokaal te werken, wat betekent dat gevoelige gegevens direct op de machine van de gebruiker kunnen worden verwerkt zonder naar externe servers te worden verzonden. Dit ontwerp vermindert het risico op blootstelling van gegevens en is bijzonder waardevol voor privacygevoelige toepassingen in sectoren zoals gezondheidszorg, financiën en juridische diensten.

Het model is geoptimaliseerd voor productiegebruik, met efficiëntie als kern. Het kan in één doorloop tot 128.000 tokens aan context verwerken, terwijl het hoge precisie- en recallwaarden behoudt. Op de veelgebruikte PII-Masking-300k-benchmark behaalde de Privacy Filter een F1-score van 96%, oplopend tot 97,43% op een gecorrigeerde versie van de dataset. Deze scores benadrukken het vermogen om subtiele en complexe privacyschendingen op te sporen en tegelijkertijd valse positieven te minimaliseren.

OpenAI heeft het model beschikbaar gesteld onder een Apache 2.0-licentie via platforms zoals Hugging Face en GitHub, en moedigt ontwikkelaars aan om het te experimenteren, fijn af te stemmen en in te zetten voor hun specifieke behoeften. Het model ondersteunt acht PII-categorieën, waaronder private_person, private_address, private_email en account_number. Het is configureerbaar voor verschillende workflows, zodat gebruikers de balans tussen precisie en recall kunnen afstemmen op hun operationele prioriteiten.

Ondanks zijn mogelijkheden erkent OpenAI dat de Privacy Filter geen op zichzelf staande oplossing is voor naleving van regelgeving of beleidstoetsing. Het is een hulpmiddel dat ontworpen is om bredere privacy-by-design-strategieën te ondersteunen. Het model kan verdere domeinspecifieke evaluatie of fijnafstemming vereisen om zich aan te passen aan verschillende sectoren, talen en naamconventies.

Deze release maakt deel uit van OpenAI's bredere streven naar verbetering van door AI aangedreven privacybescherming. Het bedrijf heeft benadrukt dat het doel is dat AI-systemen van gegevens leren zonder de privacy van individuen in gevaar te brengen. Door de Privacy Filter open source te maken, wil OpenAI ontwikkelaars en organisaties in staat stellen robuuste privacywaarborgen in hun workflows te integreren.

De Privacy Filter vertegenwoordigt een belangrijke stap voorwaarts in privacytechnologie, vooral nu de AI-industrie steeds meer onder de loep wordt genomen op het gebied van gegevensbeveiliging en ethische praktijken. Voor ontwikkelaars en bedrijven die hun PII-verwerkingsmogelijkheden willen versterken, markeert de beschikbaarheid van het model een cruciale kans om geavanceerde tools te adopteren die gebruikersprivacy prioriteit geven.

Afbeeldingsbron: Shutterstock
  • ai
  • privacy
  • openai
  • pii
  • gegevensbeveiliging
Marktkans
LiveArt logo
LiveArt koers(ART)
$0.0002707
$0.0002707$0.0002707
+1.34%
USD
LiveArt (ART) live prijsgrafiek
Disclaimer: De artikelen die op deze site worden geplaatst, zijn afkomstig van openbare platforms en worden uitsluitend ter informatie verstrekt. Ze weerspiegelen niet noodzakelijkerwijs de standpunten van MEXC. Alle rechten blijven bij de oorspronkelijke auteurs. Als je van mening bent dat bepaalde inhoud inbreuk maakt op de rechten van derden, neem dan contact op met crypto.news@mexc.com om de content te laten verwijderen. MEXC geeft geen garanties met betrekking tot de nauwkeurigheid, volledigheid of tijdigheid van de inhoud en is niet aansprakelijk voor eventuele acties die worden ondernomen op basis van de verstrekte informatie. De inhoud vormt geen financieel, juridisch of ander professioneel advies en mag niet worden beschouwd als een aanbeveling of goedkeuring door MEXC.

Roll the Dice & Win Up to 1 BTC

Roll the Dice & Win Up to 1 BTCRoll the Dice & Win Up to 1 BTC

Invite friends & share 500,000 USDT!