AI安全
-
Anthropic推出Mythos AI模型,引发对自动化软件漏洞的担忧
Anthropic发布Mythos AI模型,能比人类专家更快发现软件漏洞。行业警告现有DeFi安全措施可能难以应对AI驱动的威胁,引发对加密货币安全的新担忧。
-
朝鲜制造假代币盗取2.86亿美元:AI正让此类攻击成本趋近于零
朝鲜黑客通过制造假代币CarbonVote,利用社交工程攻击Drift Protocol安全委员会成员,在10秒内盗取2.86亿美元。此次攻击暴露了DeFi治理的结构性漏洞,而非代码缺陷。Ledger CTO警告AI正将此类攻击成本降至零,预示着未来安全挑战将更加严峻。
-
AI驱动漏洞加速加密货币行业安全担忧
人工智能技术正在加速针对加密货币平台的网络攻击,使安全防护面临更大挑战。专家警告,在AI驱动的环境中维护安全性变得越来越困难,行业需要加强安全措施应对这一新威胁。
-
以太坊创始人Vitalik Buterin警告AI代理安全风险,分享私人LLM堆栈配置
以太坊创始人Vitalik Buterin警告AI代理安全风险,已完全脱离云AI服务。他在博客中分享了完全本地化、沙盒化的AI设置,包括在Nvidia 5090笔记本上运行Qwen3.5:35B模型,强调本地AI解决方案对数据隐私和安全的重要性。
-
AI内容审核重大突破:Moonbounce获1200万美元融资构建实时安全护栏
AI内容审核初创公司Moonbounce获得1200万美元融资,用于开发实时安全护栏技术。该公司采用”政策即代码”方法,将书面安全规则转化为可执行逻辑,在300毫秒内评估和审核内容,为社交平台、AI聊天机器人和图像生成服务提供即时安全保护。
-
以太坊创始人Vitalik Buterin详解其’私密’且’安全’的AI配置方案
以太坊创始人Vitalik Buterin详细介绍了他的本地化AI配置方案,完全在本地硬件上运行Qwen3.5:35B模型,并构建了自定义安全工具防止AI代理未经批准发送消息或转移加密货币。他强调隐私保护,建议以太坊钱包团队采用类似架构,每天自主交易上限100美元。
-
Mercor遭遇严重网络攻击:通过LiteLLM项目供应链漏洞,AI招聘巨头遭受重创
AI招聘巨头Mercor遭遇严重供应链攻击,黑客通过开源项目LiteLLM入侵系统,暴露敏感数据。这起价值100亿美元公司的安全事件涉及双重威胁组织,影响数千家企业,突显AI行业对开源基础设施依赖的系统性风险。
-
LiteLLM震惊的安全转向:AI网关巨头在凭证泄露后抛弃Delve
AI网关巨头LiteLLM在遭受凭证窃取恶意软件攻击后,公开切断与合规提供商Delve的关系。这一安全事件暴露了AI合规认证的系统性问题,LiteLLM决定转向竞争对手Vanta进行重新认证,并聘请独立第三方审计师验证合规控制,标志着AI安全标准的重要转折点。
-
Claude Auto Mode发布:AI智能编码新突破,内置关键安全防护网
Anthropic推出Claude Code自动模式研究预览版,通过内置AI安全层在编码操作执行前进行风险评估,平衡AI辅助编程的自主性与安全性。该功能目前仅支持Sonnet 4.6和Opus 4.6模型,建议在沙盒环境中测试使用。
-
中国政府与国企警告员工:工作设备切勿安装OpenClaw,存在数据泄露风险
中国政府和国有企业警告员工避免在工作设备上安装OpenClaw软件,因存在数据泄露和安全风险。国家计算机网络应急中心发布安全公告,指出该软件存在提示注入和误操作等威胁。与此同时,腾讯、字节跳动等中国科技公司推出类似产品,地方政府也提供补贴鼓励AI工具应用。