OpenAI stellt Privacy Filter vor, ein Modell zur Erkennung und Schwärzung von PII mit modernster Genauigkeit. Ab sofort für Entwickler verfügbar. (Mehr lesen)OpenAI stellt Privacy Filter vor, ein Modell zur Erkennung und Schwärzung von PII mit modernster Genauigkeit. Ab sofort für Entwickler verfügbar. (Mehr lesen)

OpenAI Startet Datenschutzfilter zur Erkennung und Schwärzung von PII

2026/04/24 23:27
3 Min. Lesezeit
Bei Feedback oder Anliegen zu diesem Inhalt kontaktieren Sie uns bitte unter crypto.news@mexc.com

OpenAI startet Privacy Filter zur Erkennung und Schwärzung von PII

Caroline Bishop 24.04.2026 15:27

OpenAI stellt den Privacy Filter vor, ein Modell zur Erkennung und Schwärzung von PII mit modernster Genauigkeit. Ab sofort für Entwickler verfügbar.

OpenAI startet Privacy Filter zur Erkennung und Schwärzung von PII

OpenAI hat den Privacy Filter eingeführt, ein neues Open-Weight-KI-Modell, das darauf ausgelegt ist, personenbezogene Daten (PII) in Texten zu erkennen und zu schwärzen. Das am 23.04.2026 veröffentlichte Tool bietet modernste Genauigkeit für Datenschutz-Workflows und setzt einen neuen Maßstab beim Schutz sensibler Daten.

Der Privacy Filter zielt darauf ab, langjährige Herausforderungen bei der PII-Erkennung zu bewältigen, indem er über traditionelle regelbasierte Systeme hinausgeht. Im Gegensatz zu älteren Tools, die sich auf deterministische Muster für Formate wie Telefonnummern oder E-Mail-Adressen stützen, nutzt dieses Modell fortschrittliches Sprachverständnis, um unstrukturierten Text zu analysieren und kontextbewusste Entscheidungen zu treffen. So kann es beispielsweise zwischen öffentlichen und privaten Informationen unterscheiden – eine entscheidende Fähigkeit in nuancierten Datenschutzszenarien.

Eines seiner herausragenden Merkmale ist die Möglichkeit, lokal zu betreiben, was bedeutet, dass sensible Daten direkt auf dem Gerät des Benutzers verarbeitet werden können, ohne an externe Server übermittelt zu werden. Dieses Design reduziert das Risiko der Datenweitergabe und ist besonders wertvoll für datenschutzsensible Anwendungen in Branchen wie Gesundheitswesen, Finanzen und Rechtsdienstleistungen.

Das Modell ist für den Produktionseinsatz optimiert, mit Effizienz als Kernprinzip. Es kann bis zu 128.000 Token Kontext in einem einzigen Durchlauf verarbeiten und dabei hohe Präzisions- und Rückrufquoten aufrechterhalten. Auf dem weit verbreiteten PII-Masking-300k-Benchmark erzielte der Privacy Filter einen F1-Score von 96 % und kletterte auf 97,43 % bei einer korrigierten Version des Datensatzes. Diese Werte unterstreichen seine Fähigkeit, subtile und komplexe Datenschutzverletzungen zu erkennen und dabei falsch positive Ergebnisse zu minimieren.

OpenAI hat das Modell unter einer Apache-2.0-Lizenz über Plattformen wie Hugging Face und GitHub verfügbar gemacht und ermutigt Entwickler, es für ihre spezifischen Anforderungen zu experimentieren, feinabzustimmen und einzusetzen. Das Modell unterstützt acht PII-Kategorien, darunter private_person, private_address, private_email und account_number. Es ist für verschiedene Workflows konfigurierbar und ermöglicht es Benutzern, Präzision und Rückruf entsprechend ihren betrieblichen Prioritäten abzuwägen.

Trotz seiner Fähigkeiten räumt OpenAI ein, dass der Privacy Filter keine eigenständige Lösung für die Einhaltung gesetzlicher Vorschriften oder die Überprüfung von Richtlinien ist. Es handelt sich um ein Tool, das breitere Privacy-by-Design-Strategien ergänzen soll. Das Modell erfordert möglicherweise weitere domänenspezifische Bewertungen oder Feinabstimmungen, um sich an verschiedene Branchen, Sprachen und Namenskonventionen anzupassen.

Diese Veröffentlichung ist Teil von OpenAIs umfassenderem Bestreben, KI-gesteuerte Datenschutzmaßnahmen zu verbessern. Das Unternehmen hat betont, dass das Ziel darin besteht, dass KI-Systeme aus Daten lernen, ohne die Privatsphäre des Einzelnen zu gefährden. Durch die Open-Source-Bereitstellung des Privacy Filters möchte OpenAI Entwickler und Organisationen in die Lage versetzen, robuste Datenschutzmaßnahmen in ihre Workflows zu integrieren.

Der Privacy Filter stellt einen bedeutenden Fortschritt in der Datenschutztechnologie dar, insbesondere da die KI-Branche einer zunehmenden Prüfung hinsichtlich Datensicherheit und ethischer Praktiken ausgesetzt ist. Für Entwickler und Unternehmen, die ihre PII-Verarbeitungsfähigkeiten stärken möchten, stellt die Verfügbarkeit des Modells eine entscheidende Gelegenheit dar, modernste Tools einzusetzen, die die Privatsphäre der Benutzer in den Vordergrund stellen.

Bildquelle: Shutterstock
  • ai
  • privacy
  • openai
  • pii
  • data security
Marktchance
LiveArt Logo
LiveArt Kurs(ART)
$0,0002709
$0,0002709$0,0002709
+%1,42
USD
LiveArt (ART) Echtzeit-Preis-Diagramm
Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an crypto.news@mexc.com um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.

Roll the Dice & Win Up to 1 BTC

Roll the Dice & Win Up to 1 BTCRoll the Dice & Win Up to 1 BTC

Invite friends & share 500,000 USDT!