社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

ChatGPT 们都在卷的深度研究,是 AI 对搜索框事先张扬的谋杀 | WAIC2025

爱范儿 • 2 周前 • 63 次点击  

2025 年 AI 产品井喷,浪潮夹杂着泡沫,到底什么产品能穿越周期?
 WAIC 世界人工智能大会来了,APPSO 将推出系列专题,希望梳理这半年来重要的 AI 产品和趋势,并在现场挖掘有用有趣的产品,同时探讨产品背后的一些细节:
有哪些工具,正在从根本上改变我们的工作流?
有哪些设计,让我们发自内心地感到「就该如此」?
有哪些产品,通过开放和真诚赢得了用户的口碑?
有哪些应用,为我们带来了真实可感的效率提升?
今天,我们把视角放到今年国内外 AI 公司都在做的一个产品了类型——深度研究 Deep Research ,这其实反映了大家对想要跳出搜索框的共识
自从深度研究 Deep Research 的概念出现,AI 的模样发生了变化——没那么快了。
以往,我们常常把 AI 想象成一个随叫随到的问答机器——只要扔一个问题,它能瞬间给出答案。
但从今年以来,一种新的趋势正悄然兴起:AI 不再仅仅回答,而是在「研究」的路上,一步步陪你往前走。
这还只是起点。随着 Gemini、Kimi、Grok 等产品纷纷加入战局,我们看到一个更完整的框架正在形成:从单纯「快速问答」,到「内容聚合」,再到 「任务构建者」。
一个能够自动拆解问题、追踪路径、生成方案的研究协作体,正在慢慢浮现。我们,正在从「即时回答」进入「深度理解」的时代。
慢慢来,会更快
定义 Deep Research 也许有点困难,但它的反义词却很好找:对话问答。
自从 ChatGPT 出现后,与 AI 的协作中,问答是最基础的单位。围绕这个动作,讲究的是响应速度、生成质量和引用来源,执行出来的效果大于一切。
至于 AI 究竟有否理解问题、深入问题,并不在考核范围内——直到 Deep Research 开始卷起来。
ChatGPT 的 Deep Research 就是一个会把「慢」摆出来的产品。而且不仅仅是检索和生成的时间慢,节奏也慢:接到任务时,它的第一反应不是立刻开动,而是先反问用户。
通过二次确认,GPT 会让任务进一步细化、明确,然后再进入作业环节。整个作业环节耗时 10-30 分钟不等,用户会看到一个进度条。
二次确认无疑是模型反思、理解的一种外显化,因此这也被称为「意图转规划型」:通过针对性提问主动澄清用户意图后再制定计划。相对的,不支持二次确认的产品,则是规划策略型。
而 Gemini、Qwen 也都支持二次确认。其中 Gemini 更是大张旗鼓,它把研究规划前置了一部分,然后形成初步方案,让用户来确认。这比 GPT 更进一步,被称为统一意图规划型系统。
这些产品的共通点在于——它们都牺牲了「即时响应」,换取一个更稳定、可追踪的推理路径。
可以看到,Deep Research 场景中,回答的速度可以慢下来,不再需要像 chatbot 那样立即给出回答。但是思考、拆解步骤,以及更精细的推理,都需要通过思维链来展示。
对用户来说,这样的节奏转变,意味着人也不再是把问题丢进去就完事儿,而是要主动地,成为一个问题共建者,才能尽可能调动 AI 的能力。Deep Research 带来的,不只是信息的再组织,更是一种心理上的节奏调动——它允许你停顿、反问、重构你的问题,而不是焦虑又无措地等待一个「完美答案」。
如果说过去的 AI 问答像是「敲出问题、接住结果」,那么现在的 Deep Research,更像是你和 AI 一起,把问题翻来覆去看清楚,然后再慢慢往下走。这种缓慢不代表低效,而是把注意力重新放回了「提问的质量」与「思考的路径」上。
同时,理解力也进一步把 Deep Research 和 AI 搜索区分开来,它更像是一个和你「一起想问题」的搭档,而不是超级搜索框。
理解,而非只是收集「一箩筐网页」
那么,难道说超级搜索就没有价值了吗?
显然话不能说得这么粗暴,而这也是 Deep Research 内卷赛,给产品进化带去的第二个特征:从内容聚合器,到自主任务构建者。
这一点,在 Kimi 发布的 Deep Research 产品身上格外有所体现:开发团队点明了,这就是一个类 agent 产品。
Kimi 加入 Deep Research 战局的时间比较迟,但也正因为如此,他们想好了自家模型的优势——超长上下文——应该如何作用于这个场景。
根据 Kimi-VL 技术报告,它的上下文窗口为 128K。这使得一次性处理整本白皮书、所有对话历史或多源文档成为可能。同时意味着 Deep Research 不再受篇幅限制,AI 可以「一口气」浏览大量资料而不中断。
举个例子,它能执行平均 23 步推理、访问 200 多个网页、跨验证信息冲突、并生成清晰结构化的研究报告——这样的表现已经远超过什么「打开搜索、复制粘贴」的内容聚合器。
同时,结合了 MoE + RL agent 架构,Kimi‑Researcher 可以像人一样「思考中间步骤」:先查 A,再去验证 B,最后再整合 C 路径信息,整个流程更加完备。
可以这样理解:超级搜索依然是需要的,它是一切的基底。但在 Deep Research 产品中,不能只是找到一堆网页,稍加整理就端上来。而是要通过检索、查找,完成「梳理成因」「判断脉络」「总结偏向」的工作。
比如,Grok 就是这样走向结构化的研究。xAI 在 Grok 3 引入了更深层的搜索 DeeperSearch,在检索时智能筛选并逐步深化思路。Grok 4 则更进一步,内置了更多的原生工具调用与实时网页搜索 。
结合前面「从快问答到慢理解」的变化,AI 再一次由内容聚合器的角色进化,更深入地参与思考过程,从问答系统过渡到「研究系统」。
当逐步靠近研究系统之后,Deep Research 就离成为一个 agent 不远了。
调研,只是个开头
在 Deep Research 的军备竞赛里,光靠文字材料、符号语言已经不够了。毕竟,互联网上的信息,除了文本之外还有那么多,图像、视频、声音,都承载了大量的信息。
想要覆盖到更多样的信息和内容,出现了两条路线上的区别:让模型具备多模态处理能力,或者是调用工具,走多智能体排布。
前者的代表依然是 Kimi。后者则遍地开花,大多数深度研究都内置了脚本执行环境,与网页环境交互、执行代码、调用外部 API 完成复杂现实任务。
多模态处理能力,也是使得通用型 agent 在 Deep Research 赛道上「弯道超车」的机会。没有自己的模型?没关系,通过 MCP(Model Context Protocol)和 A2A 策略(Agent-to-Agent),促成多智能体协作,也能尽可能达到效果。
不过,这显然对开发团队的工程能力有极高的要求,目前能被人记住的,还是 Manus、Genspark 等知名通用型 agent 产品。
半年前,Deep Research 还不是一个标准产品形态,但它像一组拼图,正在一点点描出「AI 思考」的真正轮廓。
也许我们还不能准确定义 Deep Research,但可以开始描绘它的边界。它不会属于最忙的上班族,也不会只为 Prompt 爱好者,它是为那些「问题本身很复杂」的人服务的。

同时,Deep Research 也不仅仅是大模型能力的其中一个「落地」场景,它更像是一项独立而复杂的工程试验:在 AI 擅长的知识生成和语言输出之间,插入「结构化的思维步骤」,让「会查资料的 AI」开始尝试「搞懂问题」「搭建过程」「给出路径」。

这要求模型不仅能理解指令,更要能识别问题边界;不仅能提取信息,还得能排列组合、判断先后、构建链条——这已经不是「响应快不快」的问题,而是有没有一整套系统结构,去支撑复杂问题的解决

我们可以看到,这场技术演化不是一场「更强搜索框」的比拼,而是在回答一个根本问题:AI 是否能拥有一种属于它自己的「思考范式」?

它或许不会像人类那样阅读、归纳、写笔记,但也许,它能以另一种方式完成类似的过程——跨模态理解、多智能体协作、路径感知和任务建构……

我们仍不知道 Deep Research 的最终形态会是什么,但能明确的是:它的目标,不仅是服务更多人,而是服务更复杂的问题。

那些最难讲清、最需要缕清脉络、最容易失焦的议题,将会是 Deep Research 真正的用武之地。而能不能解决这些问题,将决定 AI 是「更强工具」,还是「真正的合作者」。

WAIC 2025 APPSO 在现场,欢迎加入社群一起畅聊 AI 产品,获取#AI有用功,解锁更多 AI 新知👇

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/184902
 
63 次点击