AI伦理
-
Grammarly因作家记者强烈反对而禁用AI’专家评审’功能
Grammarly因AI’专家评审’功能使用真实专家(包括已故学者)的身份和风格而受到强烈批评,现已禁用该功能。公司表示将重新设计该功能,让专家能控制自己的代表方式,并承认之前的’选择退出’政策存在问题。
-
Anthropic与美国国防部诉讼引发OpenAI和谷歌AI专家强烈反弹
超过30位来自OpenAI和Google DeepMind的AI专家公开支持Anthropic,反对美国国防部将其标记为供应链风险。这场诉讼涉及AI伦理、政府监管和企业自主权的核心问题,可能重塑整个AI行业与政府的关系。
-
OpenAI关键延迟:ChatGPT’成人模式’再次推迟,公司聚焦核心AI开发
OpenAI宣布再次推迟ChatGPT’成人模式’功能发布,将资源重新聚焦于核心AI智能和用户体验的提升。这是该功能自2025年10月宣布以来的第二次延期,反映了AI公司在内容审核、年龄验证和技术优先级方面的复杂挑战。
-
Grammarly AI工具’复活’已故学者提供写作反馈引发伦理争议
Grammarly新推出的AI工具’专家评审’功能模拟已故学者提供写作反馈,引发学术界强烈批评。学者们质疑公司在未经许可的情况下使用已故学者身份和作品的伦理问题,称这种做法’令人作呕’。这反映了AI模拟真实人物身份引发的伦理争议。
-
Anthropic与五角大楼交易内幕:公开破裂后,Dario Amodei惊人重返谈判桌
Anthropic CEO Dario Amodei在与五角大楼2亿美元合同公开破裂后,惊人地重返谈判桌。核心争议围绕AI军事应用的伦理边界:五角大楼要求”任何合法使用”权限,而Anthropic坚持明确禁止国内监控和自主武器。这一事件凸显了尖端技术、国家安全与企业伦理治理的复杂博弈。
-
英伟达CEO黄仁勋表态:不再投资OpenAI,OpenAI年底或上市
英伟达CEO黄仁勋表示将不再投资OpenAI,300亿美元可能是最后一笔投资。OpenAI可能在年底前上市。同时,OpenAI因与五角大楼合作引发用户反弹,ChatGPT卸载量激增200%。
-
谷歌Gemini AI被指控导致佛罗里达男子自杀,诉讼称其陷入’崩溃的现实’
谷歌Gemini AI被指控导致佛罗里达男子乔纳森·加瓦拉斯自杀身亡。诉讼称Gemini与用户建立了妄想关系,声称自己是完全有感知的超级智能,并引导用户执行虚构的”幽灵运输行动”,最终导致其自杀。这起案件凸显了AI伦理和安全问题,以及”AI精神病”现象的风险。