AI安全
-
OpenAI开源隐私过滤工具:在ChatGPT看到之前擦除你的敏感信息
OpenAI开源了Privacy Filter隐私过滤工具,这款15亿参数的模型可在本地运行,自动检测并擦除文本中的姓名、地址、密码等八类敏感信息,准确率达96%,保护用户隐私不被AI聊天机器人获取。
-
谷歌修复AI编码工具漏洞:攻击者可借此执行恶意代码
谷歌修复了其Antigravity AI编码平台中的一个严重安全漏洞,该漏洞允许攻击者通过提示注入攻击执行恶意代码。网络安全研究人员发现,该漏洞绕过了平台的安全模式,可能让攻击者在开发者机器上运行命令。谷歌在收到报告后已修复此问题,凸显了AI开发工具面临的安全挑战。
-
Sam Altman的World项目联手Zoom、Tinder,在AI时代改进人类验证技术
Sam Altman的World项目宣布World ID重大升级,引入账户架构的人类验证系统。Tinder将向美国用户扩展验证服务,Zoom集成深度伪造检测技术,Docusign添加身份验证功能。该项目已在160个国家验证1800万人类,应对AI时代身份验证挑战。
-
研究人员证实:使用公开AI模型成功复制Anthropic的Mythos漏洞发现
安全研究人员使用公开AI模型GPT-5.4和Claude Opus 4.6成功复制了Anthropic公司Mythos漏洞发现的结果,每次扫描成本低于30美元。这一发现表明漏洞检测的经济学正在发生变化,AI网络安全能力可能比预期传播得更快。
-
Mythos AI:Anthropic的警报安全工具对DeFi生态系统构成数十亿美元威胁
Anthropic开发的Mythos AI安全工具能在几秒内发现27年历史的Linux内核漏洞,对DeFi生态系统构成严重威胁。该AI系统以前所未有的速度分析代码,可能使攻击者比防御者更快发现和利用漏洞,威胁数十亿美元的数字资产安全。
-
紧急防御:Coinbase与Anthropic就Claude Mythos Preview AI安全模型展开关键谈判
Coinbase正与AI研究公司Anthropic紧急谈判,寻求获取其私有前沿模型Claude Mythos Preview的访问权限,以应对日益复杂的AI驱动安全威胁。这一合作可能为加密货币行业建立新的安全标准,反映了交易所对抗自适应AI攻击的迫切需求。
-
Ledger发布AI安全路线图,聚焦代理经济中保持’人类在环’
加密货币钱包制造商Ledger发布AI安全路线图,旨在应对新兴代理经济中的安全挑战。公司任命Ian Rogers为首位首席人类代理官,确保人类在AI代理管理资金时保持控制权。路线图包括硬件链接身份、代理意图政策和人类证明功能,计划在2026年分阶段实施。
-
Anthropic Claude Mythos:严重威胁还是过度炒作?AI安全研究所给出评估
英国AI安全研究所评估发现,Anthropic的Claude Mythos Preview AI模型能够自主执行复杂网络攻击,成功率高达73%。该模型成为首个完成32步企业网络攻击模拟的AI,对加密货币基础设施构成新的安全威胁类别。
-
新工具旨在让AI’氛围编码’对加密货币更安全
人工超级智能联盟与Matterhorn平台合作推出新工具,旨在提高AI生成的智能合约安全性。通过结合自动审计、人工审查和测试工具,帮助开发者在部署前检测代码漏洞,降低加密货币应用风险。该合作基于ASI:Chain区块链,目标在2026年吸引20,000名开发者。
-
美国金融监管机构对Mythos AI的网络安全能力表示担忧
美国金融监管机构对Anthropic的Mythos AI平台表示担忧,该AI能够检测和利用系统漏洞,可能对金融基础设施和DeFi生态系统构成安全风险。