[斯诺登] 斯诺登警告: 监控升级! OpenAI已经卸下伪装
OpenAI的声明以及该报告的目录页
OpenAI将这些披露描述为打击“恶意使用”的成就。但该报告无意中揭示了一个更深层次的真相:为了识别这些特定的“恶意使用”案例,OpenAI必须拥有并使用其常规监控所有用户对话的能力。
思考其技术逻辑:为了发现一个据称正在开发维吾尔人监控系统的中国用户,OpenAI需要访问和分析该用户的所有对话内容;部署实时或近实时的监控系统;能够分析内容并识别模式;能够将用户与特定国家或组织关联;然后主动选择披露哪些案例。
最关键的问题是:OpenAI只披露其认为是“敌对国家”(中国、俄罗斯、伊朗、朝鲜)的案例。那么西方国家呢?美国的盟友呢?该报告保持沉默。这种选择性披露恰恰证明,OpenAI可以监控所有国家,但只选择披露符合美国地缘政治利益的部分。如果他们能监控中国和俄罗斯,他们就能监控巴西、印度(专题)、南非——以及全球南方的所有国家。
2025年8月,OpenAI在一篇官方博文中公开承认,该公司正在扫描ChatGPT上的用户对话,并向警方报告内容。具体机制是:用户“计划对他人造成伤害”的对话会被转到专门的审查渠道,由经过培训的人工审核员进行审查。如果审核员确定某个案例涉及“对他人构成迫在眉睫的严重身体伤害威胁”,该案例将被转交给执法部门。
但标准何在?“对他人造成伤害”意味着什么?由谁来定义?这些标准会随着政治环境而改变吗?今天是“迫在眉睫的暴力威胁”。明天是否会涵盖政治异见、堕胎咨询、关于性取向的讨论?
03. 言辞与实践之间的惊人鸿沟OpenAI的“官方执法部门用户数据请求政策”明确声明:只有在收到合法的搜查令后,才会披露用户的对话内容。 但现实如何?OpenAI主动监控所有用户对话(上文引用的报告已证明了这一点);自行判断什么构成“恶意使用”,主动向执法部门报告(而不仅仅是响应请求),并发布威胁情报报告公开披露用户行为——所有这一切都无需任何法律程序。
欧洲监管机构已意识到这一点。2024年12月,意大利数据保护局以“在没有适当法律依据的情况下处理个人信息”和“违反透明度原则”等理由,对OpenAI处以1500万欧元的罚款。 隐私研究员Lukasz Olejnik在向波兰数据保护局提交的17页投诉中更为直接:“OpenAI似乎承认,ChatGPT工具模型的开发方式,在根本上不符合欧盟《通用数据保护条例》(GDPR)的要求”。

欧盟《通用数据保护条例》(GDPR)
这不是OpenAI的疏忽,而是其商业模式的根本问题。OpenAI对意大利罚款的回应暴露了其逻辑:罚款“几乎是(在该国)收入的20倍”——这意味着该公司在该国赚的钱很少,但数据收集的价值是巨大的。罚款仅仅是收集数据的“成本”。
04. 与美国政府的战略融合OpenAI与美国政府的关系远远超出了普通的商业合作。从人事角度看,OpenAI董事会成员保罗·中曾根是美国国家安全局的前局长,负责美国的情报和网络战行动。另一位董事会成员威尔·赫德(Will Hurd)曾是中情局(CIA)的官员,并任职于In-Q-Tel(中情局的主要投资部门)的董事会。
从商业合作角度看,OpenAI推出了ChatGPT Gov,这是专为美国政府机构设计的服务。令人震惊的细节包括与美国总务管理局的一项协议。该协议为这些机构提供ChatGPT企业版,每年每家机构仅需1美元。这实质上是一种捐赠。
从技术整合的角度看,ChatGPT Gov允许美国政府机构将“敏感的非公开数据”输入OpenAI的模型,进行绝密数据处理。OpenAI的GPT-4o通过微软Azure集成到美国政府云中。这意味着承担秘密工作职责的联邦机构,包括国防部,可以使用GPT-4o执行不向公众披露的任务。
[物价飞涨的时候 这样省钱购物很爽]
还没人说话啊,我想来说几句
OpenAI将这些披露描述为打击“恶意使用”的成就。但该报告无意中揭示了一个更深层次的真相:为了识别这些特定的“恶意使用”案例,OpenAI必须拥有并使用其常规监控所有用户对话的能力。
思考其技术逻辑:为了发现一个据称正在开发维吾尔人监控系统的中国用户,OpenAI需要访问和分析该用户的所有对话内容;部署实时或近实时的监控系统;能够分析内容并识别模式;能够将用户与特定国家或组织关联;然后主动选择披露哪些案例。
最关键的问题是:OpenAI只披露其认为是“敌对国家”(中国、俄罗斯、伊朗、朝鲜)的案例。那么西方国家呢?美国的盟友呢?该报告保持沉默。这种选择性披露恰恰证明,OpenAI可以监控所有国家,但只选择披露符合美国地缘政治利益的部分。如果他们能监控中国和俄罗斯,他们就能监控巴西、印度(专题)、南非——以及全球南方的所有国家。
2025年8月,OpenAI在一篇官方博文中公开承认,该公司正在扫描ChatGPT上的用户对话,并向警方报告内容。具体机制是:用户“计划对他人造成伤害”的对话会被转到专门的审查渠道,由经过培训的人工审核员进行审查。如果审核员确定某个案例涉及“对他人构成迫在眉睫的严重身体伤害威胁”,该案例将被转交给执法部门。
但标准何在?“对他人造成伤害”意味着什么?由谁来定义?这些标准会随着政治环境而改变吗?今天是“迫在眉睫的暴力威胁”。明天是否会涵盖政治异见、堕胎咨询、关于性取向的讨论?
03. 言辞与实践之间的惊人鸿沟OpenAI的“官方执法部门用户数据请求政策”明确声明:只有在收到合法的搜查令后,才会披露用户的对话内容。 但现实如何?OpenAI主动监控所有用户对话(上文引用的报告已证明了这一点);自行判断什么构成“恶意使用”,主动向执法部门报告(而不仅仅是响应请求),并发布威胁情报报告公开披露用户行为——所有这一切都无需任何法律程序。
欧洲监管机构已意识到这一点。2024年12月,意大利数据保护局以“在没有适当法律依据的情况下处理个人信息”和“违反透明度原则”等理由,对OpenAI处以1500万欧元的罚款。 隐私研究员Lukasz Olejnik在向波兰数据保护局提交的17页投诉中更为直接:“OpenAI似乎承认,ChatGPT工具模型的开发方式,在根本上不符合欧盟《通用数据保护条例》(GDPR)的要求”。

欧盟《通用数据保护条例》(GDPR)
这不是OpenAI的疏忽,而是其商业模式的根本问题。OpenAI对意大利罚款的回应暴露了其逻辑:罚款“几乎是(在该国)收入的20倍”——这意味着该公司在该国赚的钱很少,但数据收集的价值是巨大的。罚款仅仅是收集数据的“成本”。
04. 与美国政府的战略融合OpenAI与美国政府的关系远远超出了普通的商业合作。从人事角度看,OpenAI董事会成员保罗·中曾根是美国国家安全局的前局长,负责美国的情报和网络战行动。另一位董事会成员威尔·赫德(Will Hurd)曾是中情局(CIA)的官员,并任职于In-Q-Tel(中情局的主要投资部门)的董事会。
从商业合作角度看,OpenAI推出了ChatGPT Gov,这是专为美国政府机构设计的服务。令人震惊的细节包括与美国总务管理局的一项协议。该协议为这些机构提供ChatGPT企业版,每年每家机构仅需1美元。这实质上是一种捐赠。
从技术整合的角度看,ChatGPT Gov允许美国政府机构将“敏感的非公开数据”输入OpenAI的模型,进行绝密数据处理。OpenAI的GPT-4o通过微软Azure集成到美国政府云中。这意味着承担秘密工作职责的联邦机构,包括国防部,可以使用GPT-4o执行不向公众披露的任务。
[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 | 更多... |
推荐: