社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  Git

中国大模型如何破圈?开源不能太“独角戏”,也不是“上传 GitHub 就完事儿”

InfoQ • 2 月前 • 79 次点击  
采访 | 霍太稳
整理 | 宇琪
编辑 | Tina、蔡芳芳

在技术日新月异的浪潮中,“开源”早已超越了单纯的技术选型,演变为塑造未来、驱动创新的核心力量与协作哲学。它如何从工程师的工具箱,跃升为抗衡科技巨头的战略杠杆?在生成式 AI 掀起颠覆性变革的今天,开源模式又将面临哪些前所未有的挑战与机遇?

在 6 月 27-28 日于北京举办的 AICon全球人工智能开发与应用大会上,InfoQ 在现场专访了 Linux 基金会人工智能与基础设施总经理 Mark Collier(柯理怀)。他在采访中详细分享了对 AI 时代开源的看法,如何构建团结多元化的社区,以及他眼中开源未来的样子。

部分精彩观点如下:

  • 越开放,我们就能取得越多进展。

  • 构建一个真正全球化、具有多样性的开源社区至关重要,这样人们才有机会在一个中立的平台上平等参与。、

  • 商业限制实质上成了开源 AI 推广的一个障碍。它会阻碍企业采用,也妨碍整个生态的发展。

AICon 全球人工智能开发与应用大会将于 8 月 22-23 日首次落地深圳!本次大会以 “探索 AI 应用边界” 为主题,聚焦 Agent、多模态、AI 产品设计等热门方向,围绕企业如何通过大模型降低成本、提升经营效率的实际应用案例,邀请来自头部企业、大厂以及明星创业公司的专家,带来一线的大模型实践经验和前沿洞察。访问大会官网或点击文末阅读原文了解最新日程:https://aicon.infoq.cn/202508/shenzhen/schedule

以下内容基于采访速记整理,经不改变原意的删减。

Q:从您的个人经历来看,是哪些具体的经历或转折点让您意识到开源不只是技术选择,而是一种值得长期投入的事业?

Mark: 我最初从事的是技术岗位,但很快就转向了商业方向,开始专注于企业发展,主要是跨公司的战略合作。当时我的主要任务就是促成戴尔、雅虎两家公司之间的深度合作,帮助双方建立信任,我逐渐意识到:当两家公司深度合作、共同开发产品时,创造的价值会远超单打独斗。就在那时,我迎来了职业生涯的关键顿悟:两家企业协同合作所能产生的价值,胜过任何一方的孤军奋战。

在雅虎工作的后期,我与一位才华横溢的同事伊恩·罗杰斯(Ian Rogers)共事。尽管我早期对开源有过一些接触,但是伊恩让我真正理解了开源及其社区的重要性。当时我忽然“开窍”了:开源实际上是终极的业务发展与生态构建工具——它不同于传统的双边合作,而是“多边对多边”的协作模式,能让三家、三百家甚至更多主体共同参与。

也正是在这个关键时刻,我加入了 Rackspace。当时我参加了一个云计算会议,WordPress 的创始人 Matt Mullenweg 在台上说:“如果你想与 Amazon、Google 和 Microsoft 竞争,唯一能获得真正杠杆效应的方式就是开源。“这番话让我深受触动。我刚加入 Rackspace,就立刻提出:我们必须为云计算制定一个开源战略,这就是 OpenStack 项目的起点。

背后的信念其实很简单:如果你想要组织一支能与科技巨头抗衡的开发者大军,你不可能把他们全招进一家非万亿市值的公司。唯一的方式,就是共建一个开放的生态系统。这个系统由不同的公司、开发者、个体组成,他们有着共同的使命,想要一起构建一个完整的技术栈,解决同一类问题。正是这些瞬间,真正让我走上了这条探索生态系统协作和开放合作的道路。

Q:很多知名开源项目,比如 Kubernetes 最初只是为了解决企业内部需求,但开源后却带来了超出预期的影响力与价值。您怎么看 AI 时代的“开源”?它与传统软件时代相比,有哪些本质不同?

Mark: 我认为传统开源软件与如今的 AI 系统,特别是生成式 AI 之间确实存在一些本质差异。我们在构建社区、促进交流等方面有很多相似的做法,但也必须承认,两者在核心机制上并不完全一致。最大区别之一在于,生成式 AI 往往是非确定性的。

传统软件的运作逻辑是这样的:你有源代码,将其编译成可执行程序,每次运行时的结果都应该一致。这也是为什么我们强调可重现构建,这构成了传统开源软件的供应链基础。然而,生成式 AI 尤其是大语言模型(LLM),本质上是为了每次运行都可能生成不同的结果,这种行为是设计使然,而非异常,这种“非确定性”是很难用传统软件工程的方式去理解或建模的。

所以当我们尝试将开源理念应用到 AI 时,就会发现这不是一种直接对应的迁移方式。从计算机科学或软件工程的角度来看,这是一个概念上的转变。它不再是一个“bug”,而是一种“特性”。我最近看到 Google DeepMind 的一次演示中提到,过去我们将模型产生的不准确输出称为“幻觉”,这在要求准确性的任务中确实是个问题。但在另一些领域,比如电影等艺术创作中,这种“幻觉”反而更像是一种创造力的体现。

因此,AI 系统与传统软件的这些差异,虽然带来了挑战,但同时也是它的魅力所在——它具备自发的、涌现式的行为。不过也因此,我们需要换一种思维方式来理解和应用它,而不能完全沿用传统开源软件的思路。

Q:在大模型时代,从实用角度看,许多团队认为用开源权重就能快速微调并商业化落地,哪怕没有数据或训练细节,也照样有效。您为什么仍坚持强调“完整开源(full open-source)”的重要性?

Mark: 我认为,目前开源软件与 AI 系统之间并没有一个完全契合的类比,这也解释了为什么“什么是开源 AI”以及“哪些算是真正开源”这类问题会引发如此多的争议。说实话,我自己也没有答案。这场讨论之所以还没有定论,正是因为 AI 系统本身的运作机制与传统软件确实不同。但基于我的经验,我始终相信:越开放,我们就能取得越多进展,这也是我坚定主张开放协作的原因。

我一直倡导应该开放数据集、分享训练代码。但与此同时,我并不是那种“教条式”的开源主义者,不会因为某项目只开放了模型权重,就全盘否定它的价值。哪怕只分享权重,也很有意义。我更倾向于一种务实的态度,把开源看作是一个光谱,而不是非黑即白的定义。

就我个人而言,我会鼓励更开放的数据共享,但我也理解在某些情况下企业无法这么做。比如数据中可能包含隐私信息,或者是用于医疗诊断的训练数据,这类数据公开会带来伦理或法律风险。但我们也不希望模型的能力因此受限,只因为我们拒绝使用那些真正有价值的数据。所以,这里确实还有很多讨论空间,我在这个问题上更愿意保持一种包容和现实的立场,而不是一味坚持“绝对开源”的立场。

Q:Meta 的 LLaMA 系列广受欢迎,但其许可协议对商业使用有限制。您如何评价 LLaMA 的这种“开源”形式?是否应该为这类模型设立新的标签,比如“开放可用”而非“开源”?

Mark: 以目前的许可证形式来看,LLaMA 模型并不符合任何对“开源 AI”的合理定义。不过,这个问题的核心不只是代码本身,还包括训练数据的开放性。

数据是否开放,其实是目前讨论得还不够多的话题。所以,我很高兴你提到了“商业限制”这个角度。举个例子:如果你是一家公司,打算把某个开源模型的权重集成到产品中,那么你就必须非常注意它的许可证条款。假如许可证里写着“禁止商业用途”,即便我是个非律师,我也会非常犹豫要不要在商业产品中使用这样的模型。

从研究的角度看,LLaMA 模型的发布确实推动了进展。研究者们可以查看模型性能,与其他开源程度不同的模型进行对比和基准测试,这是好事。但我认为,商业限制实质上成了开源 AI 推广的一个障碍。它会阻碍企业采用,也妨碍整个生态的发展。

我经常呼吁 Meta 能在许可协议上走向更开放的方向,去除商业用途限制。但现实是——这是一个竞争激烈的世界。如果出现了像 DeepSeek 这样没有商业限制的模型,并因此获得大量关注和广泛应用,那些采用更严格许可协议的实验室和公司自然会面临压力。他们就需要作出选择:是顺应市场趋势更开放?还是继续坚持甚至收紧现有策略?这终究是各方的自由选择。

不过我确实认为,商业限制不利于构建开放生态。我们希望企业能在生产环境中使用这些模型,运行它、测试它、反馈问题,而不是仅仅当个旁观者。限制越多,参与越少,社区就越难壮大。

Q:随着 Agent 相关的技术堆栈逐渐形成新一层“基础设施”,它是否会像 Kubernetes 一样成为下一个开源平台?Linux 基金会准备如何参与?

Mark: 最近我一直在思考一个比 Agent 更广的概念,那就是“AI 原生计算栈(AI-native computing stack)”,它包括训练、推理以及 Agent 等多个部分。我认为在 AI 系统中,推理是整个栈的核心。训练阶段虽然重要,但在部署和运行模型时,推理就是实际运行时的执行环境。而当你在做 Agent 系统时,其实这些 Agent 本质上正是基于正在运行的推理系统在工作。因此,这几个部分是无法被彻底分割的,尤其是 Agent 和推理之间的联系非常紧密。虽然在实际工作中,它们可能由不同团队负责,但从系统架构和思考方式上看,我们必须整体性地理解和设计这个系统。

关于你提到的 Linux 基金会可以扮演什么样的角色,我认为我们可以从 Kubernetes 所在的 CNCF(Cloud Native Computing Foundation)的发展中找到经验。当初 CNCF 在推动 Kubernetes、Prometheus 等项目的同时,也非常重视标准的建设,比如 OCI 容器格式等,这些标准在早期构建生态过程中起到了关键作用。

如今,在 Agent 领域我们也看到类似趋势。例如 MCP,以及 Google 推出的 Agent-to-Agent(A2A)协议等标准。在 A2A 的案例中,他们几天前刚刚宣布将该协议纳入 Linux 基金会旗下。Linux 基金会在推动标准制定、搭建中立治理结构、构建开放社区等方面经验丰富,并且致力于打造一个“人人可参与”的大平台。

所以我认为,Linux 基金会未来将在 AI Agent 和推理系统标准化方面发挥越来越重要的作用。我们目前正在积极倡导这一方向,也邀请更多人加入这项工作。当然,还有很多事情要做,但 A2A 纳入基金会的消息是一个积极信号,说明我们已经迈出了正确的第一步。希望接下来能形成滚雪球效应,逐步构建起一个更有凝聚力和影响力的全球协作生态。

Q:百度、智谱、阿里等陆续开源大模型,但目前海外社区参与度仍有限。你怎么看中国在大模型开源方面的进展?要走向国际,最需解决的挑战是什么?

Mark: 回顾我们过去的经验,可以带来一些启发:构建一个真正全球化、具有多样性的开源社区至关重要,这样人们才有机会在一个中立的平台上平等参与。这些做法和策略在过去已经被验证有效,我相信我们可以再次复用。归根结底,这一切都与“信任”有关,而“透明”是建立信任的基础。若能为这些合作活动提供一个中立的归属平台,将有助于进一步强化这种信任关系。

我在全球各地走访时,能感受到外界对中国 AI 创新的高度认可。黄仁勋前几天也说过,现在全球一半的 AI 研究人员都在中国。尤其是中国的一些开源模型,无论是开放权重还是开放接口,都让全球研究者和开发者得以使用和研究,这本身就是一个非常好的开端。

关键是:我们如何在已有势能的基础上继续推动?我没有全部的答案,但历史经验已经告诉我们,如果一个项目虽然“开放”,但只由单一厂商主导,虽然比闭源强,但仍然难以实现真正的全球参与。所以我们必须想办法让更多外部贡献者加入进来——不只是别的公司,也包括来自其他国家的参与者。

只要起步了,就可以逐步扩大。如果模型只是由一个公司在内部开发,然后发布出来,比如放到 GitHub 或 Hugging Face 上,这样确实会带来使用者,但不会带来开发者和贡献者。我们称这种方式为“把东西扔过墙”,它并不利于建立参与感。因此,如果我们能朝着更开放的设计、更开放的开发流程,以及更多企业间协作的方向迈进,就会看到哪怕是微小的进展,也可能迅速演化为真正的全球生态系统,关键是要迈出第一步。

Q:在大模型时代,很多“开源”项目其实难以复现、难以修改,门槛很高。你会给年轻开发者或学生什么建议?他们该如何从使用者成长为贡献者,甚至核心维护者?

Mark: 在开源社区中,其实有很多种方式可以参与贡献。从小处开始非常重要,不管是提交一个 Bug 修复,还是参加一次社区活动、认识其他开发者,都是参与的起点。很多社区都有导师计划,比如 OpenInfra Foundation 就设有连接导师与学员的项目,我们也看到不少参与者在掌握了基本的开源协作技能后,成功找到了工作。这类项目,尤其是与大学合作的计划也很多,OpenInfra Foundation 现在也已经并入了更大的 Linux Foundation,他们也在推动类似的大学合作计划。

参与的方式也不局限于编程。有时只要在 Discord、IRC 或 Slack 这些线上社区中露个面,甚至到线下的技术聚会去,就能有很好的交流机会。其实,比起那些动辄上千人的大型会议,有时候本地的小型聚会反而更容易建立真实的连接。例如全球范围内举办的 Kubernetes Community Days 或 OpenInfra Days,都是很好的参与场景。

很多时候,一个小小的贡献就足以打开参与之门,比如整理文档就是一个极好的例子。对于开发者来说,代码审查的需求也非常大——在你还不熟悉项目结构、不准备提交代码之前,完全可以先试着参与代码审查,这其实也是一种极其重要的贡献。我们称这种基础性的工作为“砍柴挑水”,听起来不起眼,却是维系社区健康运转的关键。找准一个你能帮上忙的点,抱着“我来帮忙”的态度进入社区,大家通常都会非常欢迎你。哪怕是最小的贡献,在刚起步阶段也绝不微不足道,而且它是一个可以逐步积累并扩展的开始。

会议推荐

首届 AICon 全球人工智能开发与应用大会(深圳站)将于 8 月 22-23 日正式举行!本次大会以 “探索 AI 应用边界” 为主题,聚焦 Agent、多模态、AI 产品设计等热门方向,围绕企业如何通过大模型降低成本、提升经营效率的实际应用案例,邀请来自头部企业、大厂以及明星创业公司的专家,带来一线的大模型实践经验和前沿洞察。一起探索 AI 应用的更多可能,发掘 AI 驱动业务增长的新路径!

图片

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/184443