Py学习  »  chatgpt

OpenAI试点ChatGPT群聊功能【AI 早报 2025-11-15】

橘鸭Juya • 4 月前 • 402 次点击  

橘鸦 AI 早报 2025-11-15

概览

  • OpenAI试点ChatGPT群聊功能 #1
  • Google推出Code Wiki  #2
  • Google Colab开放AI模型并集成VS Code #3
  • 美团发布CatPaw IDE Windows版本 #4
  • MiniMax推出Coding Plan订阅服务 #5
  • 魔搭社区智谱推出GLM Coding Plan特供版 #6
  • 小米开源AI内核智能家居探索方案Miloco  #7
  • Claude开发者平台推出结构化输出功能 #8
  • NotebookLM支持上传图片作为信息源 #9
  • Qwen Code发布v0.2.1版本 #10
  • Google Gemini App Deep Research功能更新 #11
  • Google Veo 3.1更新支持多图参考 #12
  • 硅基流动平台服务调整与活动规则更新  #13
  • OpenAI发布研究,通过稀疏电路提升模型可解释性 #14
  • UI2Code^N发布:交互式UI-to-Code视觉语言模型 #15
  • Decart发布LSD v2实时视频风格化模型 #16
  • Kaggle 发布《Prototype to Production》白皮书 #17
  • Sundar Pichai转发Gemini 3发布市场预测  #18
  • Mozilla Firefox即将推出AI Window功能 #19
  • ByteDance发布Depth Anything 3视觉几何模型 #20
  • Meta确认将推出Llama 4.1与4.2模型 #21
  • Elon Musk披露了 Grok 5 细节 #22
  • Thinking Machines Lab洽谈新融资估值达500亿美元 #23
  • Gamma完成6800万美元B轮融资估值达21亿美元 #24

OpenAI试点ChatGPT群聊功能 #1

OpenAI正在部分地区测试 ChatGPT的群聊功能,将AI协作体验从单人扩展至多人,支持规划、决策和创意等多种协作场景。

OpenAI已开始在部分地区试点在ChatGPT中引入群聊功能,使用户能够与朋友、家人或同事以及ChatGPT本身在同一对话中进行协作。群聊作为一个共享空间,可用于规划、决策制定或共同处理创意,标志着ChatGPT从单人AI体验向多人AI体验的转变。

群聊功能已开始在移动端和网页端向日本新西兰韩国 台湾地区登录的ChatGPT FreeGoPlusPro计划用户推出。该试点是ChatGPT共享体验的第一步,OpenAI计划根据早期用户反馈来决定未来向更多地区和计划的扩展。

群聊支持用户将人与ChatGPT引入同一对话,例如在规划周末旅行时, ChatGPT可以帮助比较目的地、制定行程和创建打包清单。对于动手项目,如设计后院花园,群聊有助于合作者共同协作设计思路、偏好和风格。此外,群聊也便于工作或学习中的协作,如共同起草大纲或研究新主题,ChatGPT可以帮助总结和组织共享的文章、笔记和问题。

要发起群聊,用户需点击任何新建或现有聊天右上角的人员图标。如果用户向现有聊天中添加成员,ChatGPT会创建该对话的副本作为新的群聊,以确保原始对话保持独立。用户可以通过共享链接邀请一到二十人加入,群组中的任何成员都可以共享该链接以引入其他人。用户在加入或创建第一个群聊时,需要设置包含姓名、用户名和照片的个人资料。群聊位于侧边栏中一个明确标记的新区域,便于访问。

群聊的响应由GPT-5.1 Auto提供支持,该模型会根据提示以及响应对象用户所拥有的FreeGo PlusPro计划中可用的模型,选择最佳模型进行响应。群聊中启用了搜索、图像和文件上传、图像生成以及听写功能。速率限制仅适用于ChatGPT的响应,不适用于群聊中用户之间的消息,ChatGPT的响应将计入响应对象用户的可用限制。

OpenAIChatGPT在群聊中设定了新的社交行为,使其能够根据群组对话的上下文,跟随对话流程并决定何时响应以及何时保持沉默。用户可以通过在消息中提及“ChatGPT”来明确要求其响应。ChatGPT还具备使用表情符号对消息进行反应的能力,并可以引用个人资料照片,例如在被要求在群聊中创建有趣的个性化图像时。

用户可以管理群组设置,包括点击参与者图标来命名群组、添加或移除人员,或静音通知。用户还可以为每个群聊设置自定义指令,以指定ChatGPT的响应上下文或特定的语气或个性。

群聊与用户的私密对话是分开的。用户的个人ChatGPT记忆不会在群聊中使用,ChatGPT也不会从这些群聊中创建新的记忆。OpenAI正在探索未来提供更精细的控制,允许用户选择ChatGPT是否以及如何使用群聊记忆。用户需要接受邀请才能加入群聊,并且可以随时查看群组成员或退出。群组成员可以移除其他参与者,但群组创建者只能通过自行退出而被移除。针对年轻用户,如果群聊中有未满18岁的人员,ChatGPT会自动降低所有群聊成员接触敏感内容的风险。家长或监护人可以通过家长控制功能完全关闭群聊。

https://openai.com/index/group-chats-in-chatgpt/

Google推出Code Wiki #2

Google发布了一款由 Gemini驱动的新工具Code Wiki,它能自动连接代码仓库并生成与代码变更同步的交互式知识库,旨在解决文档滞后问题。

Google推出了一款由Gemini驱动的新工具Code Wiki,旨在为agentic时代的软件开发提供新视角。该工具的核心功能是连接代码仓库,自动生成一个与代码变更完全同步的、丰富的交互式知识库,从而解决传统文档滞后于代码更新的问题,提升开发者理解代码的效率。

Code Wiki通过其 AI agent实现文档的自动生成与维护。每当一个pull request被合并,相关的文档内容便会自动更新,确保其始终与代码库保持一致。用户可以深入研究代码的特定部分,从宏观的架构概览直接跳转到代码库中具体服务的定义,或从函数描述跳转到其实现细节。此外,该工具还能将复杂的代码系统转化为清晰直观的可视化图表,帮助开发者更好地理解软件架构。

根据官方页面信息,对私有仓库的支持即将推出。

https://codewiki.google/
https://x.com/dotey/status/1989402550366605777

Google Colab开放AI模型并集成VS Code #3

Google Colab向所有用户开放了生成式AI功能及模型,并正式支持与VS Code集成,旨在降低AI使用门槛并提供更灵活的开发环境。

Google Colab宣布了两项重大更新:一是向所有用户开放生成式AI功能和模型,二是正式支持与VS Code笔记本的集成。这些更新旨在使Colab的生成式AI功能更易于访问和使用,并为开发者提供更灵活的编辑环境。

在生成式AI访问方面,google.colab.ai Python库现已对所有 Colab用户开放,包括免费层级用户。该库旨在简化在Colab中使用生成式AI的流程,无需API密钥或单独的Cloud账户即可访问大型语言模型。免费层级用户现在可以访问GeminiGemma模型,但具有每月使用限制,并配置使用gemini-2.5-flashgemini-2.5-flash-lite模型。ProPro+订阅用户将继续享有更高的使用限制,并可访问更广泛、更先进的 GeminiGemma模型。通过该库,用户可以执行文本生成、语言翻译、创意内容撰写以及文本分类和数据标签等多种任务。

同时,Colab推出了新的AI Prompt Cell,这是一个专用的单元格类型,用于实现更直观的无代码或低代码AI工作流程。用户可以通过点击工具栏中“+ Code”按钮旁的下拉箭头并选择“Add AI prompt cell”来添加该单元格。该单元格提供了一个简单的界面,用户可以输入提示,由Colab生成所需的代码或文本,从而优化诸如头脑风暴、代码编写或数据分析等工作流程。

在开发环境集成方面,Google Colab现已正式支持与VS Code集成。用户现在可以将 VS Code笔记本直接连接到Google Colab的运行时环境,从而结合使用VS Code编辑器的优势与Colab提供的计算资源,包括GPUsTPUs

https://goo.gle/47QTmnB
https://medium.com/google-colab/all-colab-users-now-get-access-to-gemini-and-gemma-models-via-colab-python-library-at-no-cost-a392599977c4
https://colab.research.google.com/github/googlecolab/colabtools/blob/main/notebooks/Getting_started_with_google_colab_ai.ipynb

美团发布CatPaw IDE Windows版本 #4

美团旗下编程集成开发环境CatPaw正式发布Windows版本,扩展了其平台支持范围,并提供专属邀请码供用户下载体验。

美团开发的编程集成开发环境(IDE)CatPaw,已正式发布Windows版本,扩展了其支持平台。CatPaw此前已在macOS平台上推出。Windows版本已上线,用户可通过CatPaw官方网站下载,此次发布同时提供了一个专属邀请码ZJAW83

https://catpaw.meituan.com/

MiniMax推出Coding Plan订阅服务 #5

MiniMax开放平台上线了专为AI编程设计的Coding Plan 订阅服务,提供多档套餐,并推出限时首月优惠活动。

MiniMax开放平台正式上线了专为AI赋能编程设计的订阅服务Coding Plan。该服务提供包括Starter29元/月)、Plus49元/月)、Max119元/月)在内的三档套餐,用户可按月或按年订阅。为推广该服务,官方推出了限时优惠活动,时间从 2025年11月14日2025年12月13日。活动期间,已完成实名认证的用户首次购买Starter月度套餐可享受首月9.9元的优惠价(原价29元),每个认证主体限享受一次。

套餐名称
月度价格
Starter 29元
Plus49元
Max119元

关于服务的使用规则,Coding Plan的用量限制采用动态的 5小时速率窗口,系统会计算用户在5小时内的prompt总用量,5小时前使用的额度会自动释放。当用量达到上限时,用户可选择等待额度重置,或更换为开放平台的普通API Key,切换至按量付费模式。订阅服务一经购买不支持退款。同一订阅套餐的额度可以在多个支持的工具中共享使用。

相关负责人称,用量详情、图像和搜索MCP等功能即将推出。

https://platform.minimaxi.com/subscribe/coding-plan
https://platform.minimaxi.com/docs/coding-plan/faq

魔搭社区智谱推出GLM Coding Plan特供版 #6

魔搭ModelScope社区与智谱合作,独家推出由GLM-4.6模型驱动的“ GLM Coding Plan · 特供版”,并提供双重折扣优惠,首月最低价仅需16元

魔搭ModelScope社区正式携手智谱,独家推出了“GLM Coding Plan · 特供版”优惠包月套餐,旨在为开发者提供更强的AI编程体验。该计划由智谱的旗舰模型GLM-4.6全面驱动,并提供双重叠加优惠:在新人首购五折的基础上,再叠加额外八折,使得首月最低价格可达¥16

https://mp.weixin.qq.com/s/HKc92GnyPrHH6044fQKeUQ

小米开源AI内核智能家居探索方案Miloco #7

小米发布并开源了其AI内核智能家居方案Miloco,该方案利用端侧视觉大模型,通过自然语言实现全屋智能设备的创意联动,并强调端侧计算以保障用户隐私。

小米发布了智能家居未来探索方案 Xiaomi Local CopilotMiloco),该方案以米家摄像机作为视觉信息来源,以自研大模型为核心,旨在打通全屋IoT设备,让用户能够通过自然语言定义家庭需求和规则,实现更广泛、更具创意的智能联动。Miloco的整体框架已开源。

Miloco的全屋智能体验依托于Xiaomi MiMo-VL-Miloco-7B端侧视觉语言大模型与“硬件-能力-应用-用户”四层完整架构的支撑。该核心模型是基于小米在今年4月开源的 MiMo-VL-7B大模型优化构建,凭借视觉-语言融合能力,赋予家庭摄像头理解画面的感知力。Miloco将家庭场景任务拆分为规划和视觉理解两个阶段,通过采用小米自主研发的端侧模型,实现端侧视频理解,从而保障家庭隐私安全,所有视觉数据均在家庭端侧完成计算,不向外部服务器传输。

Miloco具有四大关键特性:首先是交互新范式,基于大模型的开发范式,可以通过自然语言交互完成规则设置和复杂的设备指令控制;其次是视觉数据的新用途,利用摄像头数据流作为感知信息源,大模型用于分析视觉数据中包含的各种家庭场景事件,以响应用户查询;第三是设备端大模型,实现端侧视频理解,保障家庭隐私安全;第四是米家生态,打通米家生态,支持检索和执行米家设备和场景,并支持发送定制内容以推送米家通知。此外,Miloco通过标准化的MCP协议封装,实现了米家生态与Home Assistant生态的打通,同时开放支持第三方IoT平台接入。

类别
要求
硬件CPU
x64架构
显卡NVIDIA 30系及以上,显存最低8GB (建议12GB及以上)
存储: 建议16GB及以上可用空间
软件操作系统
Linux (建议Ubuntu 22.04+) 或 Windows (建议Windows 10+,需支持WSL2),暂不支持macOS
容器Docker 20.10及以上,支持docker compose
驱动: 支持CUDANVIDIA驱动和NVIDIA Container Toolkit

该项目仅限非商业用途使用,未经书面授权,不得用于开发应用程序、Web服务或其他形式的软件。

https://github.com/XiaoMi/xiaomi-miloco

Claude开发者平台推出结构化输出功能 #8

Claude Developer Platform现已推出Structured outputs功能测试版,支持Sonnet 4.5Opus 4.1模型,旨在确保API响应严格遵循预定义的JSON schema或工具规范,提升输出可靠性。

Claude Developer Platform现已支持Structured outputs(结构化输出)功能,目前以公共测试版(public beta)形式提供给Claude Sonnet 4.5Opus 4.1模型使用。此功能旨在确保API响应严格匹配用户定义的JSON schemas或工具定义,从而消除生产应用中与Schema相关的解析错误和失败的工具调用。

开发者可以通过两种方式使用结构化输出:一是使用JSON,即在API请求中提供Schema定义;二是使用工具,即定义工具规格,Claude的输出将自动符合这些工具定义。最终结果是输出更加可靠,减少了重试需求,并简化了代码库,不再需要复杂的错误处理或故障转移逻辑。

Structured outputs目前已在 Claude Developer Platform上面向Sonnet 4.5Opus 4.1提供公共测试版,未来将很快支持Haiku 4.5

https://claude.com/blog/structured-outputs-on-the-claude-developer-platform
https://docs.claude.com/en/docs/build-with-claude/structured-outputs

NotebookLM支持上传图片作为信息源 #9

NotebookLM现已支持上传图片作为信息源,利用Gemini的多模态能力处理手写笔记、图表等图像信息,并能将其转化为多种格式的内容。

NotebookLM推出一项新功能,允许用户上传图片作为信息源。该功能利用Gemini的多模态能力,可以识别并综合处理包括手写笔记、教科书截图、网页图表及白板照片在内的多种图像信息,并将其转化为测验、播客等多种格式的内容。

https://x.com/NotebookLM/status/1989392074119020981

Qwen Code发布v0.2.1版本 #10

Qwen Code发布 v0.2.1版本,新增免费Web搜索功能,并对代码编辑、IDE支持及性能进行了多项优化,旨在提升AI编码体验。

Qwen Code发布了v0.2.1版本,带来了多项重大改进,旨在提供更流畅、更可靠的AI编码体验。

Qwen Codev0.2.1新增了免费Web搜索功能,支持多个提供商。Qwen OAuth用户每天可获得2000次免费搜索。用户现在可以通过 temperaturetop_pmax tokens设置来微调AI行为,以获得更多的控制权。

在代码编辑方面,新版本采用了更智能的模糊匹配管道,该机制旨在减少错误并节省Token,从而减少重试次数。此外,工具响应的输出格式已改为纯文本而非复杂的JSON,使AI更容易理解。

新版本增强了对Zed IDE的支持,集成了todo和任务管理工具。搜索功能得到了改进,包括更好的文件过滤(尊重.gitignore文件)和更智能的搜索工具,并采用了标准化的命名。性能方面,通过多阶段标准化管道实现了零开销匹配、改进的Unicode处理和优化的输出限制,提升了运行速度。该版本还修复了针对多个模型的Token限制问题,提高了跨平台支持(macOS Windows),并增强了系统稳定性。

https://x.com/Alibaba_Qwen/status/1989368317011009901

Google Gemini App Deep Research功能更新 #11

Google Gemini AppDeep Research功能已向所有移动端用户开放,允许连接Google Workspace账户以提取个人信息,生成更具上下文的报告。

Google Gemini App已向所有移动端用户(包括AndroidiOS)提供了Deep Research更新。

该更新允许用户通过连接其Google Workspace账户,从 GmailGoogle DriveChat中提取信息,从而生成更具上下文感知的报告。

https://x.com/GeminiApp/status/1989422254531448933

Google Veo 3.1更新支持多图参考 #12

GoogleVeo 3.1迎来更新,新增支持上传多张参考图像以配合视频提示词,旨在生成细节更丰富、更符合用户创意的视频内容。

Google发布了Veo 3.1的优化更新,该更新已在移动端和桌面端推出,主要功能是允许用户上传多张参考图像配合视频提示词,以生成更贴合用户愿景的视频内容。此功能旨在帮助用户创造全新的世界,并生成细节更丰富、更符合其设想的视频。

https://x.com/GeminiApp/status/1989440642179801192

硅基流动平台服务调整与活动规则更新 #13

硅基流动平台宣布将赠送余额转为代金券,升级邀请活动为“推荐官计划”,并调整未实名用户的请求限制及启用欠费拦截机制。

硅基流动平台宣布进行服务调整和功能更新,平台的服务调整包括将尚未使用的赠送余额转化为代金券。这些代金券与原赠送余额具有相同的金额和可用范围,有效期为自发放之日起1年

原有的“邀请好友注册赠送余额”活动升级为“推荐官计划”。在新的“推荐官计划”中,平台为推荐官的每一次合格推荐提供16元(暂定)面额的无门槛代金券,该代金券全平台可用。参与“推荐官计划”要求推荐官完成实名认证后报名,此前已完成认证的用户将被自动升级为推荐官。奖励的发放要求被推荐用户完成实名认证。原邀请链接在新活动中仍可继续使用。

平台将逐步调整未完成实名认证的用户或组织的平台请求限制,调整后的限制为 10 RPM。完成实名认证后,相关限制将自动解除。此外,平台将启用欠费拦截机制:当用户或组织的账户余额低于授信额度(初始设置为0)时,平台将停止相关的API服务。在完成认证或充值后,服务将自动恢复。

上述服务、活动及规则调整细节,以平台更新后的实际公示和执行规则为准。


OpenAI发布研究,通过稀疏电路提升模型可解释性 #14

OpenAI发布了一项关于神经网络可解释性的新研究,通过训练具有极度稀疏权重的语言模型,分离出负责特定行为的微小“电路”,以构建更易于理解的AI系统。

OpenAI发布了一项关于神经网络可解释性的新研究,通过训练具有极度稀疏权重的语言模型来简化其内部计算,旨在从头构建更易于理解的“解耦”神经网络。该方法通过在模型中分离出负责特定行为的微小“电路”,为理解AI系统的工作原理提供了新的路径。

尽管这项工作是迈向完全理解模型计算过程的早期步骤,且当前稀疏模型远小于前沿模型,但其初步结果展示了潜力。未来的研究方向包括将此技术扩展到更大的模型,解释更复杂的行为,并克服稀疏模型训练的低效问题。可能的解决方案包括从现有的密集模型中提取稀疏电路,或开发更高效的可解释性模型训练技术。最终目标是逐步扩大可被可靠解释的模型范围,并构建工具使未来的AI系统更易于分析、调试和评估。

https://openai.com/index/understanding-neural-networks-through-sparse-circuits/

UI2Code^N发布:交互式UI-to-Code视觉语言模型 #15

UI2Code^N是一款新型视觉语言模型,它采用交互式UI-to-Code范式,通过多阶段训练,旨在解决现代UI编程的复杂性并更好地利用迭代视觉反馈。

UI2Code^N是一个视觉语言模型(VLM),旨在通过交互式UI-to-Code范式,解决现代软件开发中用户界面(UI)编程的复杂性,并克服现有单轮范式对迭代视觉反馈利用不足的局限。该模型通过分阶段预训练(staged pretraining)、微调( fine-tuning)和强化学习(reinforcement learning)进行训练,实现了多模态编码能力的基础性改进。

https://github.com/zai-org/UI2Code_N
https://huggingface.co/zai-org/UI2Code_N

Decart发布LSD v2实时视频风格化模型 #16

Decart发布了新一代实时视频风格化模型LSD v2,该模型能在视频播放时实时重塑风格,并在一致性、质量等方面进行了改进,同时提供限时免费试用。

Decart发布了其新一代旗舰级实时视频转视频模型LSD v2。该模型能够在视频直播或播放过程中实时重塑其风格,并在一致性、质量、上下文理解和身份保留方面进行了改进,同时提供了限时免费试用。

LSD v2Decart实时视频转视频模型的第二代产品。其核心功能是在视频播放的同时对其进行风格化处理。据官方介绍,新版本在多个维度实现了提升,包括更高的一致性、更好的画面质量、更强的上下文理解能力以及可靠的身份保留效果,旨在确保视频中的人物形象在风格化后仍具有辨识度。

该模型可应用于多种场景,例如增强直播活动效果、为游戏进行实时画面风格重塑,或让主播在直播过程中以全新的风格或卡通形象出镜。

为推广该模型的发布, Decart宣布LSD v2将在发布后的72小时内提供免费试用。

https://x.com/kimmonismus/status/1989479481895989693
https://x.com/DecartAI/status/1989425986891583763

Kaggle 发布《Prototype to Production》白皮书 #17

Kaggle发布了《Prototype to Production》白皮书,提供了一份关于AI Agent从原型到生产部署的综合技术指南,旨在解决机器学习项目在生产化阶段面临的普遍挑战。

Kaggle发布了名为《Prototype to Production》(从原型到生产)的白皮书,该文件作为“5-Day AI Agents Intensive Course with  Google”的第五天内容,提供了一份关于AI Agent操作生命周期、部署、扩展和生产化的综合技术指南。该白皮书旨在解决超过 80% 的机器学习项目在从原型过渡到生产阶段时失败的问题,这些失败的根本原因被确定为数据漂移、系统集成和规模化三大难题,传统MLOps工具已无法有效应对。

https://www.kaggle.com/whitepaper-prototype-to-production
https://x.com/shao__meng/status/1989191961199387061

Sundar Pichai转发Gemini 3发布市场预测 #18

Alphabet CEO Sundar Pichai转发了关于Gemini 3即将发布的市场预测,并附上思考表情,暗示该模型可能在下周发布。

Alphabet首席执行官Sundar Pichai在社交媒体上转发了预测市场关于 Gemini 3是否会在近期发布的帖子,附上了表情🤔🤔。这或许意味着Gemini 3 有望下周发布。

https://x.com/sundarpichai/status/1989481514393121239

Mozilla Firefox即将推出AI Window功能 #19

Mozilla正在为Firefox浏览器开发一项名为“AI Window”的新功能,旨在提供一个集成的AI助手聊天空间,以开放和用户可控的方式增强浏览体验。

Mozilla近期宣布正在开发一项名为“AI Window”的新创新功能,这是一个新的、智能且用户可控的空间,旨在集成到Firefox浏览器中,允许用户在浏览时与AI助手聊天并获得帮助。该功能的开发秉持着用户选择和开放性原则,确保AI的集成方式像互联网一样开放、可访问并由选择驱动。

Mozilla正在公开构建此项功能,并邀请用户注册以接收AI Window的更新,成为第一批试用并提供反馈的用户。

https://blog.mozilla.org/en/firefox/ai-window/
https://blog.mozilla.org/firefox/firefox-ai/ai-browser-features/

ByteDance发布Depth Anything 3视觉几何模型 #20

字节跳动发布了视觉几何模型Depth Anything 3,该模型采用极简的建模方法,能够从任意视觉输入中预测空间一致的几何结构。

ByteDance Seed团队发布了Depth Anything 3 (DA3) 模型,该模型旨在从任意视觉输入中预测空间一致的几何结构,无论是否提供已知的相机姿态。DA3通过追求最小化建模,确立了两项关键洞察:一是采用单一的普通Transformer(例如, vanilla DINO encoderDINOv2 encoder)作为骨干网络,无需进行架构专业化处理;二是采用奇异的depth-ray representation(深度光线表示),从而避免了复杂的跨任务学习。

https://depth-anything-3.github.io/
https://huggingface.co/depth-anything/DA3NESTED-GIANT-LARGE

Meta确认将推出Llama 4.1与4.2模型 #21

Meta CEO Mark Zuckerberg在财报电话会议上确认了Llama 4.1Llama 4.2模型的推出计划,回应了关于公司可能停止开放模型的传闻。

Mark Zuckerberg在最近的财报电话会议中确认了 Llama 4.1Llama 4.2模型即将推出的计划。这一确认是在关于停止开放模型以应对“超级智能”的传闻背景下做出的。

https://x.com/xeophon_/status/1989413637669503283

Elon Musk披露了 Grok 5 细节  #22

Elon Musk在访谈中披露,xAIGrok 5模型预计于2026年第一季度发布,将拥有6万亿参数和原生多模态能力,目标是成为全球最智能的AI。

在最近的一次访谈中,Elon Musk披露了 xAI未来模型Grok 5的详细信息。Grok 5预计于2026年第一季度发布,将是一个拥有6万亿参数的模型,具备原生的多模态能力,包括实时视频理解。Musk声称,Grok 5将在所有指标上成为全球最智能的AI,并首次为xAI带来了实现通用人工智能(AGI)的可能性。

根据披露的信息, Grok 5的参数量将达到6万亿Musk还指出,Grok 56万亿参数将比Grok 4拥有更高的“每千兆字节智能密度”。为支持模型扩展,xAI正通过GPU集群和利用X平台的实时数据进行快速扩张。




    
https://x.com/cb_doge/status/1989449877852651704

Thinking Machines Lab洽谈新融资估值达500亿美元 #23

由前OpenAI CTO Mira Murati创立的AI初创公司 Thinking Machines Lab正在洽谈新一轮融资,目标估值高达500亿美元,是其上一轮估值的四倍多。

由前OpenAI首席技术官Mira Murati创立的AI初创公司Thinking Machines LabTML)正在进行新一轮融资的早期洽谈,估值目标约为500亿美元。若融资成功,TML的估值将比其今年7月的估值增加四倍以上,使其跻身最有价值的私人公司之列。




    
https://www.bloomberg.com/news/articles/2025-11-13/murati-s-thinking-machines-in-funding-talks-at-50-billion-value

Gamma完成6800万美元B轮融资估值达21亿美元 #24

生成式AI设计平台Gamma宣布完成6800万美元B轮融资,公司估值达到 21亿美元,同时其年度经常性收入已突破1亿美元

据报道,生成式AI设计平台Gamma宣布完成6800万美元Series B轮融资,公司估值达到21亿美元。本轮融资由Andreessen Horowitza16z)领投,Accel Uncork Capital等机构参与。Gamma同时宣布其年度经常性收入(ARR)已超过1亿美元。这轮融资中还包括一笔旨在为早期员工提供流动性的二次融资。

Gamma计划利用新资金加速产品开发,扩大团队规模,特别是招聘更多的AI工程师,并加大对国际业务的投资。

https://www.businesswire.com/news/home/20251110805751/en/Gamma-Surpasses-%24100M-ARR-Raises-at-%242.1B-Valuation-as-It-Replaces-PowerPoint-for-the-AI-Era

提示:内容由AI辅助创作,可能存在幻觉 错误

作者橘鸦Juya,视频版在同名哔哩哔哩。欢迎点赞、关注、分享

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/189146