橘鸦 AI 早报 2025-11-15 概览 Google Colab开放AI模型并集成VS Code #3 美团发布CatPaw IDE Windows版本 #4 MiniMax推出Coding Plan订阅服务 #5 魔搭社区智谱推出GLM Coding Plan特供版 #6 小米开源AI内核智能家居探索方案Miloco
#7 Google Gemini App Deep Research功能更新 #11 Google Veo 3.1更新支持多图参考 #12 OpenAI发布研究,通过稀疏电路提升模型可解释性 #14 UI2Code^N发布:交互式UI-to-Code视觉语言模型 #15 Decart发布LSD v2实时视频风格化模型 #16 Kaggle 发布《Prototype to Production》白皮书 #17 Sundar Pichai转发Gemini 3发布市场预测
#18 Mozilla Firefox即将推出AI Window功能 #19 ByteDance发布Depth Anything 3视觉几何模型 #20 Meta确认将推出Llama 4.1与4.2模型 #21 Elon Musk披露了 Grok 5 细节 #22 Thinking Machines Lab洽谈新融资估值达500亿美元 #23
Gamma完成6800万美元B轮融资估值达21亿美元 #24 OpenAI试点ChatGPT群聊功能 #1 OpenAI 正在部分地区测试
ChatGPT 的群聊功能,将AI协作体验从单人扩展至多人,支持规划、决策和创意等多种协作场景。
OpenAI 已开始在部分地区试点在 ChatGPT 中引入群聊功能,使用户能够与朋友、家人或同事以及 ChatGPT 本身在同一对话中进行协作。群聊作为一个共享空间,可用于规划、决策制定或共同处理创意,标志着 ChatGPT 从单人AI体验向多人AI体验的转变。
群聊功能已开始在移动端和网页端向 日本 、 新西兰 、 韩国 和
台湾地区 登录的 ChatGPT Free 、 Go 、 Plus 和 Pro 计划用户推出。该试点是 ChatGPT 共享体验的第一步, OpenAI 计划根据早期用户反馈来决定未来向更多地区和计划的扩展。
群聊支持用户将人与 ChatGPT 引入同一对话,例如在规划周末旅行时,
ChatGPT 可以帮助比较目的地、制定行程和创建打包清单。对于动手项目,如设计后院花园,群聊有助于合作者共同协作设计思路、偏好和风格。此外,群聊也便于工作或学习中的协作,如共同起草大纲或研究新主题, ChatGPT 可以帮助总结和组织共享的文章、笔记和问题。
要发起群聊,用户需点击任何新建或现有聊天右上角的人员图标。如果用户向现有聊天中添加成员, ChatGPT 会创建该对话的副本作为新的群聊,以确保原始对话保持独立。用户可以通过共享链接邀请 一到二十人 加入,群组中的任何成员都可以共享该链接以引入其他人。用户在加入或创建第一个群聊时,需要设置包含姓名、用户名和照片的个人资料。群聊位于侧边栏中一个明确标记的新区域,便于访问。
群聊的响应由 GPT-5.1 Auto 提供支持,该模型会根据提示以及响应对象用户所拥有的 Free 、 Go 、
Plus 或 Pro 计划中可用的模型,选择最佳模型进行响应。群聊中启用了搜索、图像和文件上传、图像生成以及听写功能。速率限制仅适用于 ChatGPT 的响应,不适用于群聊中用户之间的消息, ChatGPT 的响应将计入响应对象用户的可用限制。
OpenAI 为 ChatGPT 在群聊中设定了新的社交行为,使其能够根据群组对话的上下文,跟随对话流程并决定何时响应以及何时保持沉默。用户可以通过在消息中提及“ ChatGPT ”来明确要求其响应。 ChatGPT 还具备使用表情符号对消息进行反应的能力,并可以引用个人资料照片,例如在被要求在群聊中创建有趣的个性化图像时。
用户可以管理群组设置,包括点击参与者图标来命名群组、添加或移除人员,或静音通知。用户还可以为每个群聊设置自定义指令,以指定 ChatGPT 的响应上下文或特定的语气或个性。
群聊与用户的私密对话是分开的。用户的个人 ChatGPT 记忆不会在群聊中使用, ChatGPT 也不会从这些群聊中创建新的记忆。 OpenAI 正在探索未来提供更精细的控制,允许用户选择 ChatGPT 是否以及如何使用群聊记忆。用户需要接受邀请才能加入群聊,并且可以随时查看群组成员或退出。群组成员可以移除其他参与者,但群组创建者只能通过自行退出而被移除。针对年轻用户,如果群聊中有 未满18岁 的人员, ChatGPT 会自动降低所有群聊成员接触敏感内容的风险。家长或监护人可以通过家长控制功能完全关闭群聊。
https://openai.com/index/group-chats-in-chatgpt/ Google推出Code Wiki #2 Google 发布了一款由
Gemini 驱动的新工具 Code Wiki ,它能自动连接代码仓库并生成与代码变更同步的交互式知识库,旨在解决文档滞后问题。
Google 推出了一款由 Gemini 驱动的新工具 Code Wiki ,旨在为 agentic 时代的软件开发提供新视角。该工具的核心功能是连接代码仓库,自动生成一个与代码变更完全同步的、丰富的交互式知识库,从而解决传统文档滞后于代码更新的问题,提升开发者理解代码的效率。
Code Wiki 通过其
AI agent 实现文档的自动生成与维护。每当一个 pull request 被合并,相关的文档内容便会自动更新,确保其始终与代码库保持一致。用户可以深入研究代码的特定部分,从宏观的架构概览直接跳转到代码库中具体服务的定义,或从函数描述跳转到其实现细节。此外,该工具还能将复杂的代码系统转化为清晰直观的可视化图表,帮助开发者更好地理解软件架构。
根据官方页面信息,对私有仓库的支持即将推出。
https://codewiki.google/ https://x.com/dotey/status/1989402550366605777 Google Colab开放AI模型并集成VS Code #3
Google Colab 向所有用户开放了生成式AI功能及模型,并正式支持与 VS Code 集成,旨在降低AI使用门槛并提供更灵活的开发环境。
Google Colab 宣布了两项重大更新:一是向所有用户开放生成式AI功能和模型,二是正式支持与 VS Code 笔记本的集成。这些更新旨在使 Colab 的生成式AI功能更易于访问和使用,并为开发者提供更灵活的编辑环境。
在生成式AI访问方面, google.colab.ai Python库现已对所有
Colab 用户开放,包括免费层级用户。该库旨在简化在 Colab 中使用生成式AI的流程,无需API密钥或单独的Cloud账户即可访问大型语言模型。免费层级用户现在可以访问 Gemini 和 Gemma 模型,但具有每月使用限制,并配置使用 gemini-2.5-flash 和 gemini-2.5-flash-lite 模型。 Pro 和 Pro+ 订阅用户将继续享有更高的使用限制,并可访问更广泛、更先进的
Gemini 和 Gemma 模型。通过该库,用户可以执行文本生成、语言翻译、创意内容撰写以及文本分类和数据标签等多种任务。
同时, Colab 推出了新的 AI Prompt Cell ,这是一个专用的单元格类型,用于实现更直观的无代码或低代码AI工作流程。用户可以通过点击工具栏中“+ Code”按钮旁的下拉箭头并选择“Add AI prompt cell”来添加该单元格。该单元格提供了一个简单的界面,用户可以输入提示,由 Colab 生成所需的代码或文本,从而优化诸如头脑风暴、代码编写或数据分析等工作流程。
在开发环境集成方面, Google Colab 现已正式支持与 VS Code 集成。用户现在可以将
VS Code 笔记本直接连接到 Google Colab 的运行时环境,从而结合使用 VS Code 编辑器的优势与 Colab 提供的计算资源,包括 GPUs 和 TPUs 。
https://goo.gle/47QTmnB https://medium.com/google-colab/all-colab-users-now-get-access-to-gemini-and-gemma-models-via-colab-python-library-at-no-cost-a392599977c4 https://colab.research.google.com/github/googlecolab/colabtools/blob/main/notebooks/Getting_started_with_google_colab_ai.ipynb
美团发布CatPaw IDE Windows版本 #4 美团 旗下编程集成开发环境 CatPaw 正式发布 Windows 版本,扩展了其平台支持范围,并提供专属邀请码供用户下载体验。
美团 开发的编程集成开发环境(IDE) CatPaw ,已正式发布 Windows 版本,扩展了其支持平台。 CatPaw 此前已在 macOS 平台上推出。 Windows 版本已上线,用户可通过 CatPaw 官方网站下载,此次发布同时提供了一个专属邀请码 ZJAW83 。
https://catpaw.meituan.com/ MiniMax推出Coding Plan订阅服务 #5 MiniMax 开放平台上线了专为AI编程设计的 Coding Plan
订阅服务,提供多档套餐,并推出限时首月优惠活动。
MiniMax 开放平台正式上线了专为AI赋能编程设计的订阅服务 Coding Plan 。该服务提供包括 Starter ( 29元/月 )、 Plus ( 49元/月 )、 Max ( 119元/月 )在内的三档套餐,用户可按月或按年订阅。为推广该服务,官方推出了限时优惠活动,时间从
2025年11月14日 至 2025年12月13日 。活动期间,已完成实名认证的用户首次购买 Starter 月度套餐可享受首月 9.9元 的优惠价(原价 29元 ),每个认证主体限享受一次。
Starter
29元 Plus 49元 Max 119元
关于服务的使用规则, Coding Plan 的用量限制采用动态的
5小时 速率窗口,系统会计算用户在 5小时 内的prompt总用量, 5小时 前使用的额度会自动释放。当用量达到上限时,用户可选择等待额度重置,或更换为开放平台的普通 API Key ,切换至按量付费模式。订阅服务一经购买不支持退款。同一订阅套餐的额度可以在多个支持的工具中共享使用。
相关负责人称,用量详情、图像和搜索 MCP 等功能即将推出。
https://platform.minimaxi.com/subscribe/coding-plan https://platform.minimaxi.com/docs/coding-plan/faq
魔搭社区智谱推出GLM Coding Plan特供版 #6 魔搭ModelScope 社区与 智谱 合作,独家推出由 GLM-4.6 模型驱动的“
GLM Coding Plan · 特供版 ”,并提供双重折扣优惠,首月最低价仅需 16元 。
魔搭ModelScope 社区正式携手 智谱 ,独家推出了“ GLM Coding Plan · 特供版 ”优惠包月套餐,旨在为开发者提供更强的AI编程体验。该计划由 智谱 的旗舰模型 GLM-4.6 全面驱动,并提供双重叠加优惠:在新人首购五折的基础上,再叠加额外八折,使得首月最低价格可达 ¥16 。
https://mp.weixin.qq.com/s/HKc92GnyPrHH6044fQKeUQ
小米开源AI内核智能家居探索方案Miloco #7 小米 发布并开源了其AI内核智能家居方案 Miloco ,该方案利用端侧视觉大模型,通过自然语言实现全屋智能设备的创意联动,并强调端侧计算以保障用户隐私。
小米 发布了智能家居未来探索方案
Xiaomi Local Copilot ( Miloco ),该方案以米家摄像机作为视觉信息来源,以自研大模型为核心,旨在打通全屋IoT设备,让用户能够通过自然语言定义家庭需求和规则,实现更广泛、更具创意的智能联动。 Miloco 的整体框架已开源。
Miloco 的全屋智能体验依托于 Xiaomi MiMo-VL-Miloco-7B 端侧视觉语言大模型与“硬件-能力-应用-用户”四层完整架构的支撑。该核心模型是基于 小米 在今年 4月 开源的
MiMo-VL-7B 大模型优化构建,凭借视觉-语言融合能力,赋予家庭摄像头理解画面的感知力。 Miloco 将家庭场景任务拆分为规划和视觉理解两个阶段,通过采用 小米 自主研发的端侧模型,实现端侧视频理解,从而保障家庭隐私安全,所有视觉数据均在家庭端侧完成计算,不向外部服务器传输。
Miloco 具有四大关键特性:首先是交互新范式,基于大模型的开发范式,可以通过自然语言交互完成规则设置和复杂的设备指令控制;其次是视觉数据的新用途,利用摄像头数据流作为感知信息源,大模型用于分析视觉数据中包含的各种家庭场景事件,以响应用户查询;第三是设备端大模型,实现端侧视频理解,保障家庭隐私安全;第四是米家生态,打通米家生态,支持检索和执行米家设备和场景,并支持发送定制内容以推送米家通知。此外, Miloco 通过标准化的 MCP 协议封装,实现了米家生态与 Home Assistant 生态的打通,同时开放支持第三方IoT平台接入。
硬件 CPU : x64 架构 显卡 : NVIDIA 30系 及以上,显存最低 8GB (建议 12GB 及以上)
存储 : 建议 16GB 及以上可用空间 软件 操作系统 : Linux (建议 Ubuntu 22.04 +) 或 Windows (建议 Windows 10 +,需支持 WSL2 ),暂不支持 macOS
容器 : Docker 20.10 及以上,支持 docker compose 驱动 : 支持 CUDA 的 NVIDIA 驱动和 NVIDIA Container Toolkit
该项目仅限非商业用途使用,未经书面授权,不得用于开发应用程序、Web服务或其他形式的软件。
https://github.com/XiaoMi/xiaomi-miloco
Claude开发者平台推出结构化输出功能 #8 Claude Developer Platform 现已推出 Structured outputs 功能测试版,支持 Sonnet 4.5 和 Opus 4.1 模型,旨在确保API响应严格遵循预定义的 JSON schema 或工具规范,提升输出可靠性。
Claude Developer Platform 现已支持 Structured outputs (结构化输出)功能,目前以公共测试版(public beta)形式提供给 Claude Sonnet 4.5 和 Opus 4.1 模型使用。此功能旨在确保API响应严格匹配用户定义的 JSON schemas 或工具定义,从而消除生产应用中与Schema相关的解析错误和失败的工具调用。
开发者可以通过两种方式使用结构化输出:一是使用JSON,即在API请求中提供Schema定义;二是使用工具,即定义工具规格, Claude 的输出将自动符合这些工具定义。最终结果是输出更加可靠,减少了重试需求,并简化了代码库,不再需要复杂的错误处理或故障转移逻辑。
Structured outputs 目前已在
Claude Developer Platform 上面向 Sonnet 4.5 和 Opus 4.1 提供公共测试版,未来将很快支持 Haiku 4.5 。
https://claude.com/blog/structured-outputs-on-the-claude-developer-platform https://docs.claude.com/en/docs/build-with-claude/structured-outputs
NotebookLM支持上传图片作为信息源 #9 NotebookLM 现已支持上传图片作为信息源,利用 Gemini 的多模态能力处理手写笔记、图表等图像信息,并能将其转化为多种格式的内容。
NotebookLM 推出一项新功能,允许用户上传图片作为信息源。该功能利用 Gemini 的多模态能力,可以识别并综合处理包括手写笔记、教科书截图、网页图表及白板照片在内的多种图像信息,并将其转化为测验、播客等多种格式的内容。
https://x.com/NotebookLM/status/1989392074119020981 Qwen Code发布v0.2.1版本 #10 Qwen Code 发布
v0.2.1 版本,新增免费Web搜索功能,并对代码编辑、IDE支持及性能进行了多项优化,旨在提升AI编码体验。
Qwen Code 发布了 v0.2.1 版本,带来了多项重大改进,旨在提供更流畅、更可靠的AI编码体验。
Qwen Code v0.2.1 新增了免费Web搜索功能,支持多个提供商。 Qwen OAuth 用户每天可获得 2000次 免费搜索。用户现在可以通过
temperature 、 top_p 和 max tokens 设置来微调AI行为,以获得更多的控制权。
在代码编辑方面,新版本采用了更智能的模糊匹配管道,该机制旨在减少错误并节省Token,从而减少重试次数。此外,工具响应的输出格式已改为纯文本而非复杂的 JSON ,使AI更容易理解。
新版本增强了对 Zed IDE 的支持,集成了todo和任务管理工具。搜索功能得到了改进,包括更好的文件过滤(尊重 .gitignore 文件)和更智能的搜索工具,并采用了标准化的命名。性能方面,通过多阶段标准化管道实现了零开销匹配、改进的Unicode处理和优化的输出限制,提升了运行速度。该版本还修复了针对多个模型的Token限制问题,提高了跨平台支持( macOS 和
Windows ),并增强了系统稳定性。
https://x.com/Alibaba_Qwen/status/1989368317011009901 Google Gemini App Deep Research功能更新 #11
Google Gemini App 的 Deep Research 功能已向所有移动端用户开放,允许连接 Google Workspace 账户以提取个人信息,生成更具上下文的报告。
Google Gemini App 已向所有移动端用户(包括 Android 和 iOS )提供了 Deep Research 更新。
该更新允许用户通过连接其 Google Workspace 账户,从
Gmail 、 Google Drive 和 Chat 中提取信息,从而生成更具上下文感知的报告。
https://x.com/GeminiApp/status/1989422254531448933 Google Veo 3.1更新支持多图参考 #12
Google Veo 3.1 迎来更新,新增支持上传多张参考图像以配合视频提示词,旨在生成细节更丰富、更符合用户创意的视频内容。
Google 发布了 Veo 3.1 的优化更新,该更新已在移动端和桌面端推出,主要功能是允许用户上传多张参考图像配合视频提示词,以生成更贴合用户愿景的视频内容。此功能旨在帮助用户创造全新的世界,并生成细节更丰富、更符合其设想的视频。
https://x.com/GeminiApp/status/1989440642179801192
硅基流动平台服务调整与活动规则更新 #13 硅基流动 平台宣布将赠送余额转为代金券,升级邀请活动为“推荐官计划”,并调整未实名用户的请求限制及启用欠费拦截机制。
硅基流动 平台宣布进行服务调整和功能更新,平台的服务调整包括将尚未使用的赠送余额转化为代金券。这些代金券与原赠送余额具有相同的金额和可用范围,有效期为自发放之日起 1年 。
原有的“邀请好友注册赠送余额”活动升级为“推荐官计划”。在新的“推荐官计划”中,平台为推荐官的每一次合格推荐提供 16元 (暂定)面额的无门槛代金券,该代金券全平台可用。参与“推荐官计划”要求推荐官完成实名认证后报名,此前已完成认证的用户将被自动升级为推荐官。奖励的发放要求被推荐用户完成实名认证。原邀请链接在新活动中仍可继续使用。
平台将逐步调整未完成实名认证的用户或组织的平台请求限制,调整后的限制为
10 RPM 。完成实名认证后,相关限制将自动解除。此外,平台将启用欠费拦截机制:当用户或组织的账户余额低于授信额度(初始设置为0)时,平台将停止相关的 API 服务。在完成认证或充值后,服务将自动恢复。
上述服务、活动及规则调整细节,以平台更新后的实际公示和执行规则为准。
OpenAI发布研究,通过稀疏电路提升模型可解释性 #14 OpenAI 发布了一项关于神经网络可解释性的新研究,通过训练具有极度稀疏权重的语言模型,分离出负责特定行为的微小“电路”,以构建更易于理解的AI系统。
OpenAI 发布了一项关于神经网络可解释性的新研究,通过训练具有极度稀疏权重的语言模型来简化其内部计算,旨在从头构建更易于理解的“ 解耦 ”神经网络。该方法通过在模型中分离出负责特定行为的微小“电路”,为理解AI系统的工作原理提供了新的路径。
尽管这项工作是迈向完全理解模型计算过程的早期步骤,且当前稀疏模型远小于前沿模型,但其初步结果展示了潜力。未来的研究方向包括将此技术扩展到更大的模型,解释更复杂的行为,并克服稀疏模型训练的低效问题。可能的解决方案包括从现有的密集模型中提取稀疏电路,或开发更高效的可解释性模型训练技术。最终目标是逐步扩大可被可靠解释的模型范围,并构建工具使未来的AI系统更易于分析、调试和评估。
https://openai.com/index/understanding-neural-networks-through-sparse-circuits/ UI2Code^N发布:交互式UI-to-Code视觉语言模型 #15
UI2Code^N 是一款新型视觉语言模型,它采用交互式 UI-to-Code 范式,通过多阶段训练,旨在解决现代UI编程的复杂性并更好地利用迭代视觉反馈。
UI2Code^N 是一个视觉语言模型( VLM ),旨在通过交互式 UI-to-Code 范式,解决现代软件开发中用户界面(UI)编程的复杂性,并克服现有单轮范式对迭代视觉反馈利用不足的局限。该模型通过分阶段预训练( staged pretraining )、微调(
fine-tuning )和强化学习( reinforcement learning )进行训练,实现了多模态编码能力的基础性改进。
https://github.com/zai-org/UI2Code_N https://huggingface.co/zai-org/UI2Code_N Decart发布LSD v2实时视频风格化模型 #16
Decart 发布了新一代实时视频风格化模型 LSD v2 ,该模型能在视频播放时实时重塑风格,并在一致性、质量等方面进行了改进,同时提供限时免费试用。
Decart 发布了其新一代旗舰级实时视频转视频模型 LSD v2 。该模型能够在视频直播或播放过程中实时重塑其风格,并在一致性、质量、上下文理解和身份保留方面进行了改进,同时提供了限时免费试用。
LSD v2 是 Decart 实时视频转视频模型的第二代产品。其核心功能是在视频播放的同时对其进行风格化处理。据官方介绍,新版本在多个维度实现了提升,包括更高的一致性、更好的画面质量、更强的上下文理解能力以及可靠的身份保留效果,旨在确保视频中的人物形象在风格化后仍具有辨识度。
该模型可应用于多种场景,例如增强直播活动效果、为游戏进行实时画面风格重塑,或让主播在直播过程中以全新的风格或卡通形象出镜。
为推广该模型的发布,
Decart 宣布 LSD v2 将在发布后的 72小时 内提供免费试用。
https://x.com/kimmonismus/status/1989479481895989693 https://x.com/DecartAI/status/1989425986891583763
Kaggle 发布《Prototype to Production》白皮书 #17 Kaggle 发布了《 Prototype to Production 》白皮书,提供了一份关于 AI Agent 从原型到生产部署的综合技术指南,旨在解决机器学习项目在生产化阶段面临的普遍挑战。
Kaggle 发布了名为《 Prototype to Production 》(从原型到生产)的白皮书,该文件作为“5-Day AI Agents Intensive Course with
Google ”的第五天内容,提供了一份关于 AI Agent 操作生命周期、部署、扩展和生产化的综合技术指南。该白皮书旨在解决超过 80% 的机器学习项目在从原型过渡到生产阶段时失败的问题,这些失败的根本原因被确定为数据漂移、系统集成和规模化三大难题,传统 MLOps 工具已无法有效应对。
https://www.kaggle.com/whitepaper-prototype-to-production https://x.com/shao__meng/status/1989191961199387061
Sundar Pichai转发Gemini 3发布市场预测 #18 Alphabet CEO Sundar Pichai 转发了关于 Gemini 3 即将发布的市场预测,并附上思考表情,暗示该模型可能在下周发布。
Alphabet 首席执行官 Sundar Pichai 在社交媒体上转发了预测市场关于
Gemini 3 是否会在近期发布的帖子,附上了表情🤔🤔。这或许意味着 Gemini 3 有望下周发布。
https://x.com/sundarpichai/status/1989481514393121239 Mozilla Firefox即将推出AI Window功能 #19
Mozilla 正在为 Firefox 浏览器开发一项名为“ AI Window ”的新功能,旨在提供一个集成的AI助手聊天空间,以开放和用户可控的方式增强浏览体验。
Mozilla 近期宣布正在开发一项名为“ AI Window ”的新创新功能,这是一个新的、智能且用户可控的空间,旨在集成到 Firefox 浏览器中,允许用户在浏览时与AI助手聊天并获得帮助。该功能的开发秉持着用户选择和开放性原则,确保AI的集成方式像互联网一样开放、可访问并由选择驱动。
Mozilla 正在公开构建此项功能,并邀请用户注册以接收 AI Window 的更新,成为第一批试用并提供反馈的用户。
https://blog.mozilla.org/en/firefox/ai-window/ https://blog.mozilla.org/firefox/firefox-ai/ai-browser-features/ ByteDance发布Depth Anything 3视觉几何模型 #20
字节跳动 发布了视觉几何模型 Depth Anything 3 ,该模型采用极简的建模方法,能够从任意视觉输入中预测空间一致的几何结构。
ByteDance Seed 团队发布了 Depth Anything 3 ( DA3 ) 模型,该模型旨在从任意视觉输入中预测空间一致的几何结构,无论是否提供已知的相机姿态。 DA3 通过追求最小化建模,确立了两项关键洞察:一是采用单一的普通Transformer(例如,
vanilla DINO encoder 或 DINOv2 encoder )作为骨干网络,无需进行架构专业化处理;二是采用奇异的 depth-ray representation (深度光线表示),从而避免了复杂的跨任务学习。
https://depth-anything-3.github.io/ https://huggingface.co/depth-anything/DA3NESTED-GIANT-LARGE
Meta确认将推出Llama 4.1与4.2模型 #21 Meta CEO Mark Zuckerberg 在财报电话会议上确认了 Llama 4.1 和 Llama 4.2 模型的推出计划,回应了关于公司可能停止开放模型的传闻。
Mark Zuckerberg 在最近的财报电话会议中确认了
Llama 4.1 和 Llama 4.2 模型即将推出的计划。这一确认是在关于停止开放模型以应对“ 超级智能 ”的传闻背景下做出的。
https://x.com/xeophon_/status/1989413637669503283 Elon Musk披露了 Grok 5 细节
#22 Elon Musk 在访谈中披露, xAI 的 Grok 5 模型预计于 2026年第一季度 发布,将拥有 6万亿 参数和原生多模态能力,目标是成为全球最智能的AI。
在最近的一次访谈中, Elon Musk 披露了
xAI 未来模型 Grok 5 的详细信息。 Grok 5 预计于 2026年第一季度 发布,将是一个拥有 6万亿 参数的模型,具备原生的多模态能力,包括实时视频理解。 Musk 声称, Grok 5 将在所有指标上成为全球最智能的AI,并首次为 xAI 带来了实现通用人工智能( AGI )的可能性。
根据披露的信息,
Grok 5 的参数量将达到 6万亿 。 Musk 还指出, Grok 5 的 6万亿 参数将比 Grok 4 拥有更高的“每千兆字节智能密度”。为支持模型扩展, xAI 正通过GPU集群和利用X平台的实时数据进行快速扩张。
https://x.com/cb_doge/status/1989449877852651704 Thinking Machines Lab洽谈新融资估值达500亿美元 #23 由前 OpenAI CTO Mira Murati 创立的AI初创公司
Thinking Machines Lab 正在洽谈新一轮融资,目标估值高达 500亿美元 ,是其上一轮估值的四倍多。
由前 OpenAI 首席技术官 Mira Murati 创立的AI初创公司 Thinking Machines Lab ( TML )正在进行新一轮融资的早期洽谈,估值目标约为 500亿美元 。若融资成功, TML 的估值将比其今年 7月 的估值增加四倍以上,使其跻身最有价值的私人公司之列。
https://www.bloomberg.com/news/articles/2025-11-13/murati -s -thinking-machines-in-funding-talks-at-50-billion-value Gamma完成6800万美元B轮融资估值达21亿美元 #24 生成式AI设计平台 Gamma 宣布完成 6800万美元 B轮融资,公司估值达到
21亿美元 ,同时其年度经常性收入已突破 1亿美元 。
据报道,生成式AI设计平台 Gamma 宣布完成 6800万美元 的 Series B 轮融资,公司估值达到 21亿美元 。本轮融资由 Andreessen Horowitz ( a16z )领投, Accel 、
Uncork Capital 等机构参与。 Gamma 同时宣布其年度经常性收入( ARR )已超过 1亿美元 。这轮融资中还包括一笔旨在为早期员工提供流动性的二次融资。
Gamma 计划利用新资金加速产品开发,扩大团队规模,特别是招聘更多的AI工程师,并加大对国际业务的投资。
https://www.businesswire.com/news/home/20251110805751/en/Gamma-Surpasses-%24100M-ARR-Raises-at-%242.1B-Valuation-as-It-Replaces-PowerPoint-for-the-AI-Era 提示 :内容由AI辅助创作,可能存在 幻觉 和
错误 。
作者 橘鸦Juya ,视频版在同名 哔哩哔哩 。欢迎 点赞、关注、分享 。