OpenAI本周发布了一款名为Privacy Filter的免费工具,可以在用户将文本输入AI聊天机器人之前,自动擦除其中的敏感信息。这款工具采用Apache 2.0开源许可证发布,任何人都可以下载、使用、修改并基于它构建产品。

本地运行的隐私保护工具
Privacy Filter模型托管在Hugging Face和GitHub上,拥有15亿参数,体积小巧到可以在普通笔记本电脑上本地运行。你可以把它想象成隐私版的拼写检查工具——输入一段文本,它会返回相同的文本,但所有敏感部分都被替换为通用占位符,如[PRIVATE_PERSON]或[ACCOUNT_NUMBER]。
检测八类敏感信息
Privacy Filter能够扫描八类个人信息:姓名、地址、电子邮件、电话号码、URL、日期、账号以及密码和API密钥等机密信息。它一次性读取整个文本,然后标记敏感部分以便进行屏蔽或编辑。
与仅依赖模式匹配的传统工具不同,Privacy Filter能够理解上下文。例如,它能够区分”Annie”是私人姓名还是品牌名称,”123 Main Street”是个人住宅地址还是商业店面地址。
出色的检测准确率
OpenAI报告称,该模型在标准的PII-Masking-300k基准测试中达到了96%的F1分数,经过修正的同一测试版本更是达到了97.43%。这意味着它在96%的情况下能够成功检测到私人信息。
本地运行的重要性
Privacy Filter能够在本地机器上运行,这意味着你的文本永远不会离开你的计算机进行清理。这与当前大多数公司使用的替代方案形成鲜明对比——后者需要将原始数据发送到声称安全的云服务,然后信任它们。这种安排并不总是可靠的。
数据在你的笔记本电脑上进行清理,只有清理后的版本才会传输到其他地方。如果你经营一家小企业,这意味着你可以使用AI总结客户电子邮件,而无需将客户姓名交给第三方。自由职业律师可以将案件笔记输入聊天机器人而不会泄露客户信息。医生可以起草患者转诊信而不会暴露患者身份。
工具的局限性
OpenAI明确指出了该工具的局限性。公司警告说,Privacy Filter”不是匿名化工具、合规认证或政策审查的替代品”。换句话说,不要在医院、律师事务所或银行将其作为唯一的防线。它可能会错过不寻常的标识符,过度编辑短句,并且在不同的语言中表现不均。它是工具栈中的一个工具,而不是合规检查框。毕竟,96%的准确率不是100%。
本网站所有区块链相关数据与资料仅供用户学习及研究之用,不构成任何投资建议。转载请注明出处:https://www.lianxinshe666.com/2026/04/23/openai%e5%bc%80%e6%ba%90%e9%9a%90%e7%a7%81%e8%bf%87%e6%bb%a4%e5%b7%a5%e5%85%b7%ef%bc%9a%e5%9c%a8chatgpt%e7%9c%8b%e5%88%b0%e4%b9%8b%e5%89%8d%e6%93%a6%e9%99%a4%e4%bd%a0%e7%9a%84%e6%95%8f%e6%84%9f/