6月13-14日,由msup和高可用架构联合主办的GIAC全球互联网架构大会12周年,在深圳隆博林天瑞喜来登酒店隆重举行。会议汇聚了来自快手、字节跳动、腾讯、科大讯飞、b站等领先企业的技术专家,深入探讨了「大模型产业化落地」核心命题,共同关注生成式AI、AI安全、云原生、多模态等最热门领域的59个前沿架构案例。每一个案例都确保干货满满、源自一线实践,代表当前最具价值的技术创新与工程智慧。
本届大会开幕式致力于从更多专业维度、热点与趋势的角度,帮助更多架构师全面拥抱 AIGC,了解2025年的技术方向及未来趋势,为现场500+听众带来了年中最值得学习的干货实践。如下是5位大咖的干货分享:快手研发副总裁,基础平台部负责人叶霖为大家带来了《架构重塑 AI 未来:快手如何打造智能生产力底座》的话题分享。快手在大模型AI浪潮中走出一条务实路线:不在基础模型预训练上过度投入,而是聚焦垂直应用深度和横向业务赋能广度。其核心目标是解决大模型落地的三大卡点:显著降低成本(使其不再是“贵族技术”)、优化应用效果(适配具体场景)、实现开箱即用的便捷性。为此,快手构建了模型引擎优化、知识库增强、微调工具及开发平台等能力。
快手以“盖房子”为喻,分阶段构建强大的AI技术底座:先夯实基础设施(自建高效液冷机房、自研服务器优化资源配比、打造高性能网络);再建设平台服务层(统一调度引擎支撑多样化负载);重点打造AI应用平台(集成开源模型的模型广场、知识库、工具链、低代码编排引擎),并推动AI应用全面Serverless化以提升密度与敏捷性。同时,快手将大模型深度融入业务:在平台层面,应用于智能运维(故障根因定位、性能调优)、资源调度优化等;在业务层面,驱动AI主播生成、电商素材创作、商品描述自动化、智能评论互动及内容审核风控等场景,极大提升效率。分享的最后,叶霖表示,2025年将成为“AI应用元年”。他同时指出,提升AI的规划判断能力、构建类人的“记忆系统”,将是通向更智能助理的关键挑战与未来方向。
msup创始人兼CEO、微上信息技术研究院院长刘付强以“工程师文化驱动组织创新”为题进行分享。他提出了“DRIVE”模型,并从五个关键维度进行了阐述。通过整合五大要素,企业能够在AI时代,形成强大的竞争力,实现可持续发展。
关键实践一:战略解码、“技术X商业”再造组织创新。通过重塑实体或虚拟的技术委员会,推动技术与业务的结合,实现降本增效,构建面向未来的技术战略规划。
关键实践二:刷新团队,上接战略,下接组织级能力。围绕企业关键岗位打造知行合一的训战营,通过定标、对标、达标的方式,确定组织发展所需能力,并设立学习路径和学习地图,提升团队能力。
关键实践三:激发创新、打造智慧涌现的持续创新机制。引入创新,它山之石、可以攻玉,走进大厂学创新,对标全球公司创新做法。
关键实践四:跨越鸿沟,识别创新陷阱、迈向下一个阶段。打造创业领导力,从技术管理到技术经营管理;造就一批具有国际视野的科技型企业家,并借鉴标杆案例,学习如何成功跨越鸿沟。
关键实践五:关注效能,消除浪费、持续提升客户价值。构建企业数智化效能平台,关注降本增效,促进组织内外高效流动。陈立东:腾讯云 Linux服务器操作系统TencentOS的技术创新实践来自腾讯云操作系统产品总经理陈立东,带来了主题为《腾讯云 Linux服务器操作系统TencentOS的技术创新实践》的精彩分享。他分享了其操作系统技术在安全稳定、降本增效、AI技术创新、存量业务支持四大领域的实践成果。一、安全稳定方面,15年磨砺 海量实践铸成TencentOS Server TencentOS自2010年开始研发,历经了15年的技术积累。TencentOS持续在内核方面深耕,连续6年在虚拟化领域国内开源贡献第一,OpenJDK社区连续4年国内贡献第一。2016年腾讯内部已完成自研操作系统TencentOS Server的全量替换,支撑了腾讯所有业务平稳安全运行,包括微信、QQ、游戏、广告、支付等超大体量的核心业务。TencentOS已在农业银行、招商银行等金融机构的核心系统中落地,凭借内核安全加固、高可用性架构、性能优化及合规适配等能力,满足金融级场景的稳定性与安全性需求,同时覆盖政务、能源等关键行业,成为国产操作系统在企业级市场规模化应用的标杆。这样的海量实践,也造就了TencentOS的稳定和可靠。1、CPU利用率提升15%-45% :通过在离线业务混合部署(如大数据与在线服务),重构Linux调度算法及资源隔离机制,实现精细化隔离,在腾讯内部业务及富途证券、顺丰等客户处落地实践。2、内存成本降低30% :针对内存成本上升、CPU 与内存配比矛盾及内存浪费问题,优化内核内存冷热页检测算法与换入换出机制,在腾讯内部存储和数据库领域落地,可减少 30% 内存;重构 Linux 内核 Swap 分配器,提升换入换出效率 4 倍,并贡献到 Linux 社区。 3、服务器主机能耗降低5%-30%:通过CPU功耗状态的调节,降低服务器功耗,智能预测和智能调节,避免突发业务的“唤醒”延迟,资源池可以对uncore\硬盘等深度睡眠,充分节能的同时实现节点的秒级唤醒,在保证业务无感前提下,降低服务器整体功耗 。针对企业级AI模型私有化部署挑战,TencentOS Server AI提供了一套完整的解决方案,具备部署成本透明可控、降低AI专家依赖度、开箱即用以及企业级安全保障等优势。1、GPU算力切分 :qGPU技术,解决 AI 应用算力浪费与性能干扰问题,精准切分算力和显存,支持多模型部署,显著提升GPU利用率,并在中信证券、合合科技、微信、QQ等业务中广泛应用。
2、大模型推理框架加速:TencentOS Server AI加速版中提供的TACO-LLM加速模块,针对企业级AI模型私有化部署挑战,对大语言模型业务进行了专门的内核运行优化,用于提高大语言模型的推理效能,提供兼顾高吞吐和低延时的优化方案,能够“无缝”整合到现有的大模型部署方案中。我们为荣耀部署大模型提供了TACO-LLM加速模块,在DeepSeek-R1 满血版场景下,相对于荣耀原始线上业务性能,TTFT(首Token延迟)P95的响应时间最高降低6.25倍,吞吐提升2倍,端到端延迟降低 100%。在社区最新版本 sglang 场景下,TTFT P95 的响应时间最高降低 12.5 倍。模型运行更平稳,系统调度更顺畅。TencentOS对存量业务极为友好,与RHEL/CentOS同源兼容,能实现100%业务切换稳定运行,支持批量替换和一键回滚。腾讯云开发了全套迁移工具,支持系统平稳迁移,具备预检查、兼容性保障和一键回退功能。在安全方面,建立了漏洞警报、评估修复和公告系统,确保操作系统安全。在某大型单位3000+套CentOS原地替换项目中,首批300套设备仅用10天就完成原地替换和业务验证,平均替换过程小于15分钟,按计划迁移成功率达到100%。此外,腾讯积极参与开源社区合作,支持国内外硬件生态,并孵化云原生OS、轻量级性能工具等项目,推动技术发展。思维星空创始人、前字节跳动产品副总裁,前蚂蚁集团体验技术部负责人王保平带来了《AI 产品如何有人味》的主题演讲。本次分享中,王保平主要聚焦于架构师思维在AI创业中的应用,他提出了架构的核心逻辑,即“发现问题、定义问题、解决问题、消灭问题”——同样适用于产品打造。当前,在信息爆炸时代,用户看似拥有更多时间,却深陷“注意力稀缺”困境,成为被各种应用吸引的“注意力奴隶”,导致疲惫而非充实。针对此问题,王保平认为AI产品的机会在于构建能帮助用户重获“注意力自由”的沉浸式环境(如电影院、教堂、线下大会),而非一味争夺注意力。他以Cursor、沉浸式翻译、YouMind等产品为例,说明优秀工具应降低创作门槛,辅助用户(而非一键替代),在平静环境中提升心流体验,实现“创作即消费”。最终目标是激励用户从被动消费转向主动创作,在有限人生中留下有意义的产出。他表示,YouMind即致力于成为文图创作领域的“Cursor”,通过AI辅助降低创作初始难度,陪伴用户跨越创作荒漠。
快递100产研负责人,百递研究院院长李朝明带来了《AI+Data+MCP,重新定义API》的精彩分享。快递100基于15年积累的海量物流数据(连接3000+快递公司、服务2.7亿用户、处理日均4亿次查询),提出了中国首个快递物流网络数智图谱。此外,快递100此次也推出快递物流行业首个MCP Server。通过AI+Data+MCP,快递100重新定义API:从聚合价值来看,API不再只是“连接多家物流企业、统一信息差异”的工具,而是借助MCP实现对API的进一步聚合,使其具备“思考”能力。快递物流行业也由此从过去被动地“查询物流轨迹”,迈向主动“预测未来趋势”的新阶段。 从数据价值来看,以往“难以有效挖掘、仅用于系统间信息交互”的半结构化数据,如今实现了“AI与数据的双向赋能”:AI加速了数据化进程,而高质量的数据又反过来驱动AI应用的持续创新。 从使用对象来看,API 的调用模式已不再依赖开发人员的手动适配与调用,而是升级为智能体能够自主规划调用路径、自动发现所需服务、智能执行调用操作的 MCP 新模式。李老师分享结束后,快递100总经理陈登坤(Duke)、副总经理兼首席产品体验官陈武强(Chad)携手客户代表芒果TV产品技术总监兰勇先生、回流技术总监蓝智恒先生,行业专家代表深圳市人工智能行业协会执行会长郎丽艳女士、Msup创始人兼CEO暨微上信息技术研究院院长刘付强先生共同出席发布仪式。
巅峰对话 Vibe Coding:
未来的软件开发范式
本次开幕式新增了圆桌对话环节,GIAC 发起人,高可用架构发起人Tim Yang作为主持人、阿里云高级前端专家蒲松洋、Kyligence技术合伙人 Auto-Coder 作者祝海林、ClackyAI CEO李亚飞三位嘉宾,分享了各自领域的关键突破:蒲松洋通过将Cursor工具升级为“自动驾驶”模式,体验了AI独立完成复杂任务的能力,认为其效率已接近高级工程师水平;祝海林在GPT-3时代即预见AI辅助编程的必然性,其开发的AutoCode工具已实现大量生产代码的自动生成;李亚飞则因AI高效解决复杂Python模块问题而创立ClackyAI,倡导未来开发者将指挥多个云端Agent协同工作。嘉宾们一致认为,Vibe Coding正深刻重塑开发范式。尽管面临如“幻觉税”、项目熟悉度、内部库适配等挑战,但其提升效率和解放人力的趋势不可阻挡。未来三年,开发者角色将转向需求定义、架构设计和结果审核,通过指挥多个AI Agent来完成工作。这不仅限于编程领域,更预示AI将席卷所有行业,带来人机协作的新范式。至此,GIAC开幕式圆满结束,各位嘉宾纷纷表示收获满满,期待明年和大家再聚。
技术原创及架构实践文章,欢迎通过公众号菜单「联系我们」进行投稿