针对美国法院近期的一项裁决,OpenAI 于 6 月 5 日宣布将提起上诉。该裁决要求该公司无限期保存特定用户的 ChatGPT 对话日志数据。OpenAI 认为此命令与其向用户承诺的隐私保护政策直接冲突。

这项争议源于 OpenAI 与《纽约时报》的版权侵权诉讼。上月,法院应《纽约时报》请求下达指令,要求 OpenAI 长期封存并隔离相关聊天输出日志。《纽约时报》担心 OpenAI 可能删除用户与 ChatGPT 交互中涉及绕过其付费墙或总结其版权文章内容的记录,这些记录在诉讼中可能成为关键证据。
波及广泛用户,政策被迫更改
- 受影响的涵盖 ChatGPT 免费版、Plus、Pro、Team 用户,以及未采用“零数据保留 (ZDR)”协议的 API 客户。
- 企业版、教育版用户及启用 ZDR 的 API 客户不受此限。
- 根据 OpenAI 原有规则,用户主动删除或未保存的对话通常会在 30 天后清除(法律要求保留除外)。法院命令迫使这些本该删除的内容将被永久保留。
OpenAI 强烈反对,称损害用户信任与隐私
OpenAI 在声明及官网文章中驳斥了《纽约时报》的诉求为“毫无根据”,并阐述了其隐私保护措施。公司高层(CEO Sam Altman 和 COO Brad Lightcap)公开批评该裁决:

- 威胁隐私: 认为要求无差别保留数亿用户的聊天数据严重侵犯全球用户隐私。
- 破坏信任: 损害用户对 OpenAI 的信任基础。
- 运营负担: 将带来巨大的技术运维压力。
- 法律冲突风险: 可能导致其违反与客户的合同以及全球隐私法规(如 GDPR、CCPA)。
- 开创坏先例: Altman 称其“设置了一个危险的判例”,并强调保护用户隐私是核心原则。Lightcap 指其要求“过于宽泛且无必要”,削弱了既有隐私规范。
OpenAI 承诺保留的数据仅为极少数法律和安全人员可访问,不会自动对外共享。

《纽约时报》视其为关键胜利
该报认为此裁决是其在版权诉讼中的重大进展,有助于获取 OpenAI 可能侵权的证据。去年底,《纽约时报》起诉 OpenAI 和微软,指控其未经许可和付费使用其海量原创文章训练 AI 模型(如 ChatGPT 和 Copilot)并直接输出内容,甚至标示为可靠来源。该报曾要求销毁使用了其版权材料的训练模型和数据,认为这威胁到原创新闻业的生存。
潜在巨大冲击:商业、信任与跨境合规风险
- 业务损失: 分析指出,强制数据保留令可能使 OpenAI 在 API 市场处于竞争劣势,担心数据隐私的客户可能转向其他服务商。彭博社预计 OpenAI 2025 年营收 127 亿美元,其中 API 业务贡献约 15%(约 19 亿美元),这块收入面临风险。
- 信任崩塌: 法律专家(如杨洪泉律师)指出,用户信任建立在平台对数据处理的透明承诺(如删除权)上。法院命令使平台难以兑现“删除即清除”的承诺,破坏用户预期和信任。
- 技术挑战与泄露风险: 海量数据的长期存储需要庞大基础设施,且保留越久、规模越大,遭遇黑客攻击导致大规模敏感数据泄露的风险呈指数级上升。
- 跨国法律冲突: 该命令可能使 OpenAI 陷入国际法律困境。欧盟 GDPR、加州 CCPA 等法规赋予用户“删除权”,但美国法院命令可能阻止 OpenAI 响应此类合法请求。违反 GDPR 最高可处全球年收入 4% 或 2000 万欧元(取高者)的罚款。按 OpenAI 127 亿预估收入计,潜在罚金可能高达约 5 亿美元。
发布者:admin:https://www.bitlocker.com.cn/2025/06/13/openai-duikangfaa/