Py学习  »  chatgpt

Gemini 正测试从 ChatGPT 导入对话的功能【AI 早报 2026-02-01】

橘鸦Juya • 1 月前 • 159 次点击  

AI 早报 2026-02-01

概览

精选

  • Gemini正在测试从ChatGPT等平台导入对话历史的功能 #1

开发生态

  • LM Studio更新支持本地运行Claude Code #2
  • V0新增导入GitHub项目功能 #3

行业动态

  • Nvidia据称搁置OpenAI千亿协议 #4
  • 苹果AI核心团队动荡,多人转投Meta谷歌 #5
  • SpaceX申请部署百万卫星轨道数据中心 #6

技术与洞察

  • nanochat百美元内成本训练出GPT-2级别模型 #7

前瞻与传闻

  • 快手可灵AI预告Kling 3.0全能视频模型 #8

Gemini正在测试从ChatGPT等平台导入对话历史的功能 #1

Google 正在为 Gemini 测试多项新功能。用户可通过“import AI chats”功能导入 ChatGPT 等平台的对话记录。图像生成支持  2K 和 4K 分辨率下载。这些功能目前均处于测试阶段,最终形态可能调整。

据报道,Google正为 Gemini 测试三项新功能。其一,测试中的 import AI chats 功能允许用户从 ChatGPT 等平台导入对话历史,通过附件菜单上传并在 Gemini 中延续上下文;但所有导入数据将存储于用户活动记录并用于 Google 模型训练。其二,设置页面出现名为 Likeness 的新条目,跳转至 Video Verification 页面,具体用途尚不明确,据分析可能与视频内容认证相关。其三,图像生成功能将新增 2K 及 4K 分辨率下载选项,最高画质标注为"适用于印刷",方便用户将AI生成内容用于实体材料。这些功能目前均处于测试或早期开发阶段,最终形态可能调整。

https://www.testingcatalog.com/google-will-make-it-easier-to-import-chatgpt-conversations-to-gemini/

LM Studio更新支持本地运行Claude Code #2

LM Studio 发布 0.4.1 版本,新增 Anthropic 兼容 API,支持本地运行模型使用 Claude Code

LM Studio 发布 0.4.1 版本,通过引入 Anthropic 兼容的 /v1/messages API 端点,实现了与 Claude Code 的连接。用户现在可在本地、私密且免费的环境中,使用自己的 GGUF 和 MLX 模型运行 Claude Code,并支持命令行终端与 VS Code 集成。

启用此功能需先启动本地服务器,然后将环境变量 ANTHROPIC_BASE_URL 设置为 http://localhost:1234ANTHROPIC_AUTH_TOKEN 设置为  lmstudio。在 VS Code 中,需在设置里通过 claudeCode.environmentVariables 配置项设置相同变量。官方建议 Claude Code 的上下文大小至少为 25K tokens

https://lmstudio.ai/blog/claudecode

V0新增导入GitHub项目功能 #3

AI 代码生成工具 V0 新增从 GitHub 直接导入项目功能,用户现在可以一键从 GitHub 导入已有项目。

AI 代码生成工具 V0 新增从 GitHub 直接导入项目功能,用户现在可以一键从 GitHub 导入已有项目。




    
https://linux.do/t/topic/1550341

Nvidia据称搁置OpenAI千亿协议 #4

NvidiaOpenAI价值千亿美元的合作协议目前暂停,该备忘录不具法律约束力。尽管存在内部疑虑Nvidia CEO 黄仁勋否认关于其不满合作的传闻,称将参与OpenAI最新融资。

据《华尔街日报》报道,NvidiaOpenAI于去年9月宣布的价值高达1000亿美元的合作协议目前已陷入停滞。该不具约束力的谅解备忘录内容包括 NvidiaOpenAI建设至少10GW的专用计算能力,并投资最高1000亿美元以帮助其支付费用,OpenAI则同意向Nvidia租赁这些芯片。报道援引知情人士称,交易停滞的原因在于Nvidia内部存在疑虑。部分社区讨论认为,Nvidia CEO Jensen Huang或对OpenAI“缺乏纪律”的商业模式及面临的竞争感到担忧。

然而,Huang公开否认了与OpenAI存在分歧,并强调Nvidia将“绝对”参与OpenAI当前的融资轮,计划进行“巨大”投资,并称这笔投资可能是公司史上最大的一笔。这表明尽管原协议进展不顺,但双方仍在探索新的合作方式。

https://www.wsj.com/tech/ai/the-100-billion-megadeal-between-openai-and-nvidia-is-on-ice-aa3025e3
https://www.bloomberg.com/news/audio/2026-01-31/partial-shutdown-nvidia-absolutely-investing-in-openai-more

苹果AI核心团队动荡,多人转投Meta谷歌 #5

苹果公司近期再曝AI人才流失,四名研究人员及 Siri 高管离职,转投 Meta 与 谷歌DeepMind

据媒体报道,苹果近几周再现AI核心人才流失,至少四名研究人员与一名 Siri高管 相继离职。杨寅飞 创办新公司;有昊轩Bailin Wang 加入 Meta王子瑞Siri高管Stuart Bowers 转投 Google DeepMind。分析认为,这凸显 苹果 AI部门持续动荡,部分员工因公司将新版 Siri 核心模型开发外包给 谷歌 感到不满。苹果 去年已重组 AI 团队,新版 Siri 将由 谷歌 提供底层技术支撑。过去六个月,苹果 已流失十多名 AI 研究人员,人才流失成其 AI 发展的重要隐忧。




    
https://www.bloomberg.com/news/articles/2026-01-30/apple-loses-more-ai-researchers-and-a-siri-executive-in-latest-departures?srnd=undefined&embedded-checkout=true

SpaceX申请部署百万卫星轨道数据中心 #6

SpaceX 向美国联邦通信委员会提交申请,计划部署最多 一百万颗 卫星组成“轨道数据中心”,运行于低地球轨道,利用太阳能供电并借助 Starlink 网络传输数据。旨在为人工智能提供算力支持。

SpaceX1月30日向美国联邦通信委员会(FCC)提交申请,计划部署一个由多达一百万颗卫星组成的“轨道数据中心系统”,旨在为先进人工智能(AI)模型提供算力支持。根据官方文件,该星座将运行在500至2000公里高度的近地轨道,通过星间光链路及与Starlink卫星的通信传输数据,并使用基于非干扰原则的 Ka波段频谱作为备用。SpaceX称,该系统将利用近乎持续的太阳能实现变革性的能源效率,并以此为由请求豁免FCC通常要求的星座部署时间里程碑。目前该申请状态为“待审”。

在申请文件中,SpaceX将该宏大计划描述为迈向卡尔达肖夫II型文明的第一步。公司认为,脱离地面基础设施的束缚,在未来数年内,太空将成为生成式AI计算成本最低的地点,从而能以空前的速度和规模推动AI模型进步。该系统将依托SpaceXStarlink星座运营及Starship重型运载火箭方面的经验。

Space News媒体报道,SpaceX此次计划的百万颗卫星规模远超此前所有被严肃考虑的系统。目前地球轨道上约有1.5万颗活跃卫星,其中SpaceX自己的Starlink星座约有9500颗。行业普遍认为,卫星运营商申请比实际部署更多卫星以获得设计灵活性是一种常见做法。

此项申请也发生在AI算力需求急剧增长的背景下。据路透社报道,这种需求是SpaceX计划进行首次公开募股( IPO)的关键驱动力,旨在筹集数百亿美元。该媒体还称,在SpaceX提交FCC申请的前一天,有报道称其正与马斯克的AI公司xAI讨论合并事宜。此外,有媒体讨论认为马斯克也可能在考虑将SpaceX特斯拉合并。

https://fccprod.servicenowservices.com/icfs?id=ibfs_application_summary&number=SAT-LOA-20260108-00016
https://www.reuters.com/business/aerospace-defense/spacex-seeks-fcc-nod-solar-powered-satellite-data-centers-ai-2026-01-31/

nanochat百美元内成本训练出GPT-2级别模型 #7

Andrej Karpathy 宣布,其项目 nanochat 仅用 73美元3.04小时,就在单个  8XH100 节点上训练出超越原始 GPT-2 性能的大语言模型。Karpathy已公开优化细节与复现方法,并创建“time to GPT-2”排行榜,推动 LLM 原型设计与学习。

Andrej Karpathy宣布,其项目nanochat已能以不到100美元的成本,在单个8XH100节点上训练出达到GPT-2级别的大语言模型。具体实现耗时3.04小时,成本仅约73美元

通过整合Flash Attention 3内核、Muon优化器、可学习标量门控的残差路径以及value embeddings等多项技术优化,新模型的性能超越了OpenAI2019年原始训练的GPT-2。与当年在32个TPU v3芯片上花费 168小时、总成本约4.3万美元的方案相比,新方案成本降低了600倍,显示出训练成本每年约降低2.5倍的趋势。

Karpathy认为此趋势可能被低估,他为此创建了“time to GPT-2”排行榜,并公开了详细的优化细节与复现方法,希望nanochat能成为一个用于原型设计、实验与学习的优质LLM框架。

https://x.com/karpathy/status/2017703360393318587
https://github.com/karpathy/nanochat/discussions/481

快手可灵AI预告Kling 3.0全能视频模型 #8

快手可灵AI宣布即将发布全能模型 Kling 3.0,整合 Video 3.0 与 3.0 Omni,统一此前模型。新功能包括生成更长视频、支持多镜头故事板和稳定参考。目前部分创作者已开启早期访问,官方表示模型即将正式上线。

Kling AI 官方宣布,即将推出下一代全能模型  Kling 3.0Kling AIO)。该模型将 Video 3.0 与 3.0 Omni 进行整合,并统一此前的 VIDEO O1 和 VIDEO 2.6 模型,以提供单一且功能更全的视频生成服务。核心升级包括:

  • 支持生成更长时长的视频片段;
  • 引入多镜头故事板工作流,优化视频创作流程;
  • 提供更稳定的参考能力,确保生成内容的一致性。

此外,官方透露模型还包含大量其他性能升级。目前,Kling 3.0 已向部分受邀创作者开放独家早期访问权限。

https://x.com/Kling_ai/status/2017473684815167874

提示:内容由AI辅助创作,可能存在幻觉错误

作者橘鸦Juya,视频版在同名哔哩哔哩。欢迎点赞、关注、分享

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/192445