哥伦比亚最高法院以AI生成为由驳回了一份上诉状,但律师随后用同一AI检测工具测试法院的裁决,结果显示该裁决有93%可能是AI生成的。这一事件暴露了AI检测工具的不可靠性,引发了法律界对技术依赖的质疑。

法院的AI检测争议
哥伦比亚最高法院在审理一起上诉案时,使用Winston AI工具检测律师提交的上诉状,结果显示该文件仅含7%人类内容,法院据此认定上诉状为AI生成并予以驳回。
然而,律师Emmanuel Alessio Velasquez随后将法院的裁决文本提交给同一Winston AI软件进行检测,结果显示该裁决包含93%的AI生成文本。他在社交媒体上表示:”如果谴责使用人工智能的裁决本身获得如此高的百分比,那么使用这些检测器作为论证支持的脆弱性就变得不言而喻。”

文章作者也进行了测试:当GPTZero仅扫描法院文本的开头部分时,返回了100%的AI结果;但当处理包含事实背景部分的较长版本时,结果完全相反:100%人类。

AI检测工具的不可靠性
哥伦比亚律师们迅速进行了自己的实验。刑事辩护律师Andres F. Arango G提交了一份2019年的法院文件(远早于这些工具训练检测的大型语言模型存在的时间),结果被标记为95%AI生成。
另一位律师Nicolas Buelvas测试了他2020年的本科论文,结果被标记为100%AI生成。律师Dario Cabrera Montealegre指出:”法院使用AI来确定是否存在AI,从我的实践角度来看,这是矛盾的。”
技术缺陷与学术研究
AI检测器通过测量统计模式工作:句子长度、词汇可预测性以及研究人员称为”突发性”的质量(指人类写作中引入的自然节奏变化)。问题在于正式的法律散文、学术写作以及第二语言使用者产生的文本共享许多相同的统计特征。
2023年发表在《Patterns》上的一项研究发现,超过61%的非英语母语者的托福作文被错误地标记为AI生成。同年Weber-Wulff的系统性审查得出结论,没有可用的工具既精确又可靠。

甚至连OpenAI也不得不因其检测工具持续不准确且无法完成实际工作而下架了它。大学多年来一直在应对这个问题:范德堡大学在2023年禁用了Turnitin的AI检测器,估计每年会产生约3000个误报。
文化影响与司法指导
文化影响近乎荒谬。在写作和新闻界,人们开始避免在作品中使用破折号,不是因为任何风格指南,而是因为AI语言模型经常使用它们,检测工具(和人们)已经注意到了这一点。
哥伦比亚司法部门于2024年12月通过了正式指导方针,规范法官和法院工作人员如何使用人工智能。这些规则允许自由使用AI进行行政和支持任务,如起草电子邮件、组织议程、翻译文件或总结文本,同时允许更敏感的使用,如法律研究或起草程序文件,但必须经过仔细的人工审查。
指导方针明确禁止依赖AI评估证据、解释法律或做出司法裁决,强调人类法官对所有裁决负全部责任,并且必须披露在准备司法材料时使用了AI工具。
本网站所有区块链相关数据与资料仅供用户学习及研究之用,不构成任何投资建议。转载请注明出处:https://www.lianxinshe666.com/2026/03/04/%e5%93%a5%e4%bc%a6%e6%af%94%e4%ba%9a%e6%b3%95%e9%99%a2%e7%94%a8ai%e6%a3%80%e6%b5%8b%e6%8b%92%e4%b8%8a%e8%af%89%ef%bc%8c%e8%87%aa%e5%ae%b6%e8%a3%81%e5%86%b3%e5%8f%8d%e8%a2%ab%e5%90%8c%e4%b8%80%e5%b7%a5/