首页 行业动态 OpenAI:“Open”可能会迟到,但不会缺席?

OpenAI:“Open”可能会迟到,但不会缺席?

2025.08.07


    8月5日注定会成为AI技术和商业竞争格局演变里的重要时刻。


    这一天,硅谷最重要的三家模型大厂都发布了各自非常具有节点意义的模型,这种盛况有阵子没见到了。


    先是谷歌发布了Genie 3模型——一个你可以和模型生成的3D世界实时交互的世界模型。接着Anthropic更新了它最主力的Claude Opus系列,发布Claude 4.1 Opus,编码能力继续突破。然后OpenAI预告了许久的开源模型也终于来了,正如此前泄露的,OpenAI发布了名为GPT-oss、开放权重的模型(含120b、20b两个版本)。这是它继2019年11月开源GPT-2之后,再度开源它的语言模型。


    三个模型发布在24小时内接连发生,但与过去充满火药味的直接竞争不同,这次各家更多是在各自擅长的领域展示不同的进化方向。AI的叙事,正在从“谁更强”的单一维度,走向更复杂多元的竞争格局。



    历史真是讽刺。OpenAI的名称来源,就是“开放”、“开源”,这曾被其CEO奥特曼自诩为AI时代的核心精神和生存之道。但从2019年初开始,OpenAI就处心积虑地偏离了开源轨道:那年2月,它以“安全问题”为借口,拒绝公布GPT-2的全部参数权重,只公布了一个7.74亿参数的“部分模型”。直到当年11月,在GPT-2乏人问津的情况下,它才羞羞答答地公布了全部15亿参数。至于后来大放异彩的GPT-3、GPT-3.5以及GPT-4系列大模型,则既没有公布过参数权重,也没有公布过技术路线白皮书。截止8月5日前,OpenAI已成为当今全球AI大模型基础研发第一集团当中,寥寥几家“没有任何新版开源大模型”的开发者之一。


    这次OpenAI终于交出了它的开放权重模型作业:GPT-oss,一个13B参数的密集模型。值得注意的是,这并非一个能与GPT-4o或Claude 4.1匹敌的SOTA模型,其性能大致对标Llama 3-8B或Qwen2-7B。在一些基准测试上,它的表现甚至略逊于同量级对手。


    奥特曼称,GPT-oss性能与o4-mini水平相当。在多项基准测试中,GPT-oss-120b的表现确实与OpenAI o4-mini几乎持平,GPT-oss-20b则与OpenAI o3-mini相似。


    GPT-oss的最大亮点是其部署的高效性。GPT-oss-120b能够在单个80GB GPU上高效运行,例如高端笔记本;GPT-oss-20b则只需16GB内存即可在边缘设备(例如手机、平板)上运行,非常适合本地推理、设备端使用或在没有高昂基础设施的情况下快速迭代。两款模型均采用MXFP4原生量化,其中,GPT-oss-120b在H100 GPU上历经210万卡时训练而成,20b版本的训练用量为前者的1/10。



    但GPT-oss的意义并不在于性能,而在于“OpenAI”这个名字和它附带的许可证。


    首先,这不是一次彻底的开源。


    这两款模型属于“局部开放”的大语言模型,公布的只是权重、一份34页的技术白皮书,以及其他少量选择性的信息。强化学习的技术细节、预训练的数据构成、数据来源等信息都未披露。仅凭这些公开信息,我们是没法“复制”出一个成品来的。当然归根到底,大家发布开源大模型是为了满足部分客户的需求、培育开发者生态,而不是方便别人抄袭。


    GPT-oss使用的许可证是OpenAI自定义的“OpenAI Model License 1.0”,其中最关键的条款是:禁止任何年度收入超过1亿美元或日活跃用户超过100万的商业实体,使用GPT-oss来开发或提供与OpenAI核心产品(如API、ChatGPT)竞争的服务。这个条款就精准地将所有潜在的大公司竞争对手排除在外,同时又能让广大的中小开发者和研究者进入其生态。


    其次,这是OpenAI自GPT-2以来首次开放权重,是一次重大的战略转向。



    可以说OpenAI发布开源模型,一个很主要的原因是DeepSeek的冲击。当一个免费的开源的模型,达到了其它闭源、收费极高的模型对于大部分用户来说所能感受到的水准,这就是致命打击。GPT-oss显然是OpenAI的一种防御,也是它想要做的生态扩张动作,对抗DeepSeek、Qwen等开源力量对其开发者基础的侵蚀。


    当前全球AI市场竞争激烈,新兴力量崛起迅速,在这样的环境下开源成为重要手段,可以吸引更多开发者,完善其生态系统。


    对竞争对手来说,开源当然是好事,便于互相学习借鉴(以及抄袭)。对于全人类来说,开源就更是好事,因为历史一再证明开放能促进技术进步。但是对于OpenAI这种吸引到业界所有目光的AI领头羊来说,让更多的开发者加入到它的生态系统中,有什么实际意义?



    答案很明确:开源大模型可以下载安装到本地硬件设备里,完全从本地运行,这对于一部分客户相当有吸引力。客户可以把所有数据存储在本地,而不是上传到第三方平台,从而最大限度地保护了数据安全。无论对于国家机密还是商业机密来说,这种安全性都很重要。


    客户可以基于自身需求,对开源大模型进行微调(fine-tune),从而契合特定行业应用场景。医疗、金融等复杂或敏感行业对此需求尤其旺盛。


    对于预算有限的客户来说,在本地硬件上运行大模型,或许比购买闭源大模型使用权更划算。当然,在本地部署开源大模型,就意味着客户要为自己的信息安全和技术维护负责。在权衡利弊之后,许多大型行业客户还是会更偏好开源大模型。这就是LLaMA系列大模型在欧美深受大企业欢迎的原因,也是DeepSeek在今年年初席卷国内政企客户的原因。DeepSeek的技术水平或许能与GPT-4o1相比,但如果不是开源,它的应用速度会非常慢,无论对B端还是C端都是如此。


    这次OpenAI走下神坛,不再扮演那个高高在上的闭源领导者,而是试图通过一个“够用”的开放模型,将开发者吸引到它的生态系统中——用GPT-oss进行本地开发、微调,然后无缝迁移到更强大的OpenAI闭源模型上。GPT-oss的规模与性能,恰恰提供了这样一个精明的“卡位”。目前,GPT-oss-120b和GPT-oss-20b已上线开源托管平台Hugging Face,普通用户则可以在OpenAI打造的体验网站中直接免费使用。



    从商业角度看,这个决策早晚要做出。不管怎么说,有些企业客户永远不可能把至关重要的数据上传到第三方平台,政府部门就更是如此。与其把这片广阔的市场留给竞争对手占领,不如自己去占领。如果竞争对手技术进步的速度慢一点,OpenAI重返开源赛道的速度或许也会慢一点,但也只是慢一点而已。


    在OpenAI开源之前,国内的大模型开源早已进行得如火如荼。


    近几个月来,腾讯、智谱AI、昆仑万维、阿里巴巴、月之暗面等头部企业密集发布新一代开源大模型,将AI开源战场推至前所未有的热度。据Hugging Face中国社区统计,仅7月单月,就有16家机构共开源31个模型及工具,覆盖文本、图像、3D生成等全模态场景。如今OpenAI携GPT-oss-120b和GPT-oss-20b两款开源模型强势入局,释放出技术普惠信号,无疑为国内大模型开源竞争格局带来巨变。



    从积极方面看,其开源行为为国内企业提供了学习借鉴先进技术的契机,通过研究OpenAI模型架构、训练方式等,国内企业可以优化自身模型,实现技术升级。


    挑战也随之而来。OpenAI凭借其知名度与技术领先形象会吸引部分国内开发者与用户资源。国内企业如何充分发挥本地化优势成为亟待解决的课题,这场全球性的大模型开源竞赛,可以说现在才刚刚开始。



相关链接:中国区支持的其他支付方式名单

shopify的套餐费用明细



在线留言 在线留言
如果您对我们的产品感兴趣并想了解更多详情,请在此留言,我们会尽快回复您。