竞争对手 OpenAI、Anthropic PBC 和 Alphabet Inc. 旗下的谷歌已经开始合作,试图遏制竞争对手从美国尖端人工智能模型中提取结果,以在全球人工智能竞赛中获得优势。
据知情人士透露,这三家公司正在通过 Frontier Model Forum共享信息,以检测违反其服务条款的所谓对抗性数据提炼尝试。
这种罕见的合作凸显了美国人工智能公司所担忧的严重性:一些用户,尤其是在的用户,正在开发其产品的仿冒版本,这些仿冒版本可能以低价抢走客户,并构成国家安全风险。一位知情人士匿名透露,据美国官员估计,未经授权的仿冒行为每年给硅谷实验室造成数十亿美元的利润损失。
OpenAI证实,它参与了前沿模型论坛关于对抗性蒸馏的信息共享工作,并指出其近期向国会提交了一份关于此实践的备忘录,其中指责公司DeepSeek试图“搭OpenAI和其他美国前沿实验室开发的技术的便车”。谷歌、Anthropic和前沿模型论坛均拒绝置评。
蒸馏是一种利用较早的“教师”人工智能模型训练较新的“学生”模型的技术,该学生模型能够复制早期系统的功能——通常比从头开始构建原始模型成本低得多。某些形式的蒸馏已被广泛接受,甚至受到人工智能实验室的鼓励,例如,当公司创建更小、更高效的自有模型版本,或者允许外部开发人员使用蒸馏技术构建非竞争性技术时。
阅读更多:OpenAI 声称 DeepSeek 提炼了美国模型以获得优势
然而,当第三方未经授权使用蒸馏技术复制专有成果时,这项技术一直备受争议。美国顶尖的人工智能实验室警告称,外国敌对势力可能利用该技术开发出缺乏安全防护措施的人工智能模型,例如那些能够防止用户制造致命病原体的限制。
实验室开发的大多数模型都是开源的,这意味着底层人工智能系统的部分代码是公开的,用户可以免费下载并在自己的平台上运行,因此使用成本更低。这给那些一直将模型设为专有的美国人工智能公司带来了经济挑战,这些公司押注客户会付费使用他们的产品,以帮助抵消他们在数据中心和其他基础设施上投入的数千亿美元。
蒸馏技术在2025年1月首次受到广泛关注,当时DeepSeek出人意料地发布了R1推理模型,该模型在人工智能领域引起了轰动。彭博社此前报道称,不久之后,微软和OpenAI就对这家初创公司是否从美国公司的模型中非法窃取了大量数据以创建R1展开了调查。
今年2月,OpenAI警告美国国会议员,尽管美国政府加大了防止其产品被滥用的力度,DeepSeek仍持续使用日益复杂的手段从美国模型中提取结果。OpenAI在提交给众议院问题特别委员会的备忘录中声称,DeepSeek正利用数据蒸馏技术开发其突破性聊天机器人的新版本。
美国人工智能公司就对抗性蒸馏技术进行的信息共享,与网络安全行业的惯例不谋而合。在网络安全行业,各公司经常交换有关攻击和对手策略的数据,以此加强网络防御。通过合作,这些人工智能公司同样旨在更有效地检测此类行为,识别责任人,并努力阻止未经授权的用户得逞。
阅读更多:Anthropic称DeepSeek和MiniMax提炼了人工智能模型以实现收益
特朗普政府官员已表示,他们愿意促进人工智能公司之间的信息共享,以遏制对抗性算法提炼。去年,唐纳德·特朗普总统公布的《人工智能行动计划》呼吁建立一个信息共享和分析中心,部分原因正是出于这个目的。
据知情人士透露,目前,由于人工智能公司不确定在现有的反垄断指导方针下哪些信息可以共享以应对来自的竞争威胁,因此有关技术蒸馏的信息共享仍然有限。知情人士表示,如果美国政府能够提供更明确的指导,这些公司将从中受益。
自 DeepSeek 在 2025 年初发布 R1 版本震撼全球市场以来,数据蒸馏一直是美国人工智能开发者最为关注的问题之一。功能强大的开源模型在持续涌现,业内许多人士都在密切关注 DeepSeek 模型的重大升级。
阅读更多:Anthropic 限制向企业提供人工智能服务
去年,Anthropic公司禁止企业使用其Claude聊天机器人模型。今年2月,该公司指出三家人工智能实验室——DeepSeek、Moonshot和MiniMax——通过算法提炼非法提取了该模型的功能。今年,Anthropic公司表示,这种威胁“已超越任何单一公司或地区”,并构成国家安全风险,因为提炼后的模型通常缺乏安全防护措施,无法防止不法分子利用人工智能工具进行恶意活动。
谷歌发布博文称,他们发现模型提取尝试有所增加。美国三大人工智能实验室尚未提供证据证明在模型创新方面有多少依赖于模型蒸馏,但他们指出,攻击的普遍程度可以根据大规模数据请求的数量来衡量。