Py学习  »  chatgpt

【AI】人工智能70年:从图灵测试到ChatGPT的进化史

人工智能产业链union • 昨天 • 77 次点击  
转自霍小闲,仅用于学术分享,如有侵权留言删除
2022年11月,ChatGPT横空出世,仅用2个月就突破1亿用户,成为有史以来增长最快的应用。这个能写诗、能编程、能辩论的AI助手,让全世界都在讨论:人工智能的时代真的来了。

但你知道吗?从1950年图灵提出那个著名的测试,到今天ChatGPT惊艳世界,人工智能已经走过了70多年的漫长历程。这条路上有辉煌、有低谷、有突破、也有挫折。

一、什么是人工智能?先搞清楚这三个概念

很多人把"人工智能"、"机器学习"、"深度学习"混为一谈。其实它们是包含关系:

人工智能(AI)  是最大的圈,包含所有让机器展现智能的技术。比如让电脑下象棋、识别人脸、理解语言,都属于人工智能。

机器学习(ML) 是人工智能的一个分支,核心思想是"让机器从数据中学习规律",而不是人工编写规则。就像教小孩认苹果,不是告诉他"红色的、圆形的、有果柄的就是苹果",而是给他看一百个苹果,让他自己总结规律。

深度学习(DL) 是机器学习的一个子集,使用多层神经网络模拟人脑的学习过程。AlphaGo、ChatGPT、Stable Diffusion都是深度学习的产物。

它们的关系可以这样理解:

人工智能(最广)
└─ 机器学习(从数据学习)
   └─ 深度学习(神经网络)
      └─ 大语言模型(GPT、BERT等)

从技术路线看,人工智能发展出了三大流派:

符号主义:用逻辑和规则表示知识。1980年代的专家系统就是典型代表,医生把诊断规则编成程序,电脑就能帮忙诊病。优点是逻辑清晰,缺点是规则太复杂时难以维护。

连接主义:模仿人脑神经元的工作方式。现在火爆的深度学习就属于这一派。优点是学习能力强,缺点是需要海量数据,而且难以解释为什么做出某个决策。

行为主义:通过与环境交互来学习最优策略。强化学习就是这一派的代表,AlphaGo就是用强化学习战胜了李世石。

二、起源(1950-1956):一切从图灵的问题开始

图灵测试:如何判断机器是否有智能?

1950年,计算机科学之父艾伦·图灵在《思想》杂志上发表了一篇论文,提出了一个至今仍在争论的问题:机器能思考吗?

为了回答这个问题,图灵设计了一个测试:让一个人通过文字和两个对象交流,一个是真人,一个是机器。如果测试者无法分辨哪个是机器,那就说明机器具有了智能。

这个测试看似简单,实则深刻。它把哲学问题转化为了可操作的实验。70多年过去了,虽然ChatGPT在某些对话中能"骗过"人类,但真正通过图灵测试的AI还没有出现——因为机器在常识推理、情感理解等方面仍然和人类有巨大差距。

达特茅斯会议:人工智能的正式诞生

1956年夏天,约翰·麦卡锡、马文·明斯基等10位科学家在达特茅斯学院开了一个会。他们在提案中写道:

"我们认为,如果一个精心挑选的科学家小组在一起工作一个夏天,就能在使机器使用语言、形成抽象概念方面取得重大进展。"

这个乐观得有些天真的预测,标志着"人工智能"作为一个独立学科的诞生。

会议讨论了七个主题:自动计算机、语言模拟、神经网络、计算规模理论、自我改进、抽象概念、随机性与创造性。有趣的是,这些话题到今天仍然是AI研究的核心。

不过,他们远远低估了人工智能的难度。原本以为一个夏天能解决的问题,实际上花了70年,至今仍在探索。

三、第一次繁荣与寒冬(1956-1980):从狂热到幻灭

早期的成功让人过度乐观

1958年,心理学家弗兰克·罗森布拉特发明了感知机(Perceptron),这是最早的神经网络模型。他兴奋地宣称:"感知机将能够走路、说话、看见、写字、自我复制,并且意识到自己的存在。"

《纽约时报》甚至报道说:"美国海军今天展示了一台电子计算机的雏形,它有望能够行走、说话、看见、书写、自我复制,并且能够意识到自己的存在。"

可惜现实很快就给了他们一记响亮的耳光。

1969年,明斯基和帕普特出版了《感知机》一书,严格证明了感知机连最简单的"异或"问题都解决不了。这个打击是致命的,神经网络研究陷入了长达十几年的低谷。

与此同时,专家系统开始兴起。科学家们想:既然模拟神经元太难,为什么不直接把专家的知识编成规则呢?

1965年,斯坦福开发了DENDRAL系统,用来分析化学分子结构。1972年的MYCIN系统能够诊断血液感染,准确率甚至超过了普通医生。

但专家系统有个致命缺陷:知识获取瓶颈。把一个领域专家的所有知识都编成规则,太费时费力了。而且规则一多,系统就变得难以维护,加一条新规则可能和旧规则冲突。

第一次AI寒冬

到了1970年代,AI的局限性暴露无遗:

  • 计算能力严重不足
  • 数据量太小
  • 算法不够强大
  • 承诺的成果无法兑现

1973年,英国科学研究委员会委托詹姆斯·莱特希尔教授评估AI研究。他的报告毫不留情:AI研究未能实现其"宏伟的目标",大部分研究只是"组合拳击"(combinatorial explosion的双关语,指问题空间爆炸)。

报告发布后,英国几乎停止了所有AI研究资金。美国的DARPA也大幅削减了AI经费。第一次AI寒冬来临,许多研究者转行,实验室关闭。

四、第二次繁荣与寒冬(1980-1993):专家系统的黄金时代

商业化带来的短暂复苏

1980年代初,专家系统迎来了商业化的春天。

1980年,卡内基梅隆大学开发的XCON系统帮助DEC公司配置计算机订单,每年节省数千万美元。这个成功案例让企业看到了AI的商业价值。

日本政府在1982年启动了雄心勃勃的"第五代计算机"项目,投入数亿美元,目标是开发能够进行推理和学习的智能计算机。这个项目刺激了美国和欧洲,掀起了新一轮AI投资热潮。

到1985年,AI产业的规模已经达到10亿美元。各种专家系统如雨后春笋般涌现:医疗诊断、金融分析、设备故障检测……

神经网络的复兴曙光

就在专家系统如日中天的时候,一个被遗忘的研究方向悄悄复苏了。

1986年,鲁梅尔哈特、辛顿等人重新发现并推广了反向传播算法。这个算法解决了多层神经网络的训练问题,为后来的深度学习革命埋下了伏笔。

不过当时的计算能力和数据量还无法支撑大规模的神经网络训练,所以这个突破并没有立即引发革命。

第二次AI寒冬

好景不长,专家系统的问题开始显现:

维护成本高昂:一个大型专家系统可能有上万条规则,修改一条规则需要检查是否和其他规则冲突。

知识获取困难:从专家那里提取知识是个艰难的过程,有些知识专家自己都说不清楚,属于"只可意会不可言传"的隐性知识。

缺乏学习能力:专家系统不会从经验中学习,所有知识都要人工添加。

脆弱性:遇到训练范围外的问题就会失效。

1987年,Lisp机器市场崩溃(Lisp是开发AI的主要语言,专门的Lisp计算机价格昂贵)。桌面PC的性能快速提升,专用AI硬件失去了市场。

日本的"第五代计算机"项目也在1992年黯然收场,投入巨大却没有达到预期目标。

第二次AI寒冬降临,比第一次更加严重。"人工智能"成了一个负面词汇,研究者们避免使用这个术语,转而使用"信息学"、"知识系统"等说法。

五、复苏期(1993-2011):机器学习的崛起

从规则到统计:范式转变

经历了两次寒冬,AI研究者们反思:为什么总是失败?

答案逐渐清晰:手工编写规则的路走不通,必须让机器自己从数据中学习规律

这个思路并不新鲜,但直到1990年代,计算能力的提升和数据的积累才使其成为可能。

1995年,弗拉基米尔·万普尼克提出了支持向量机(SVM),凭借坚实的理论基础和出色的性能,迅速成为机器学习的主流方法。在深度学习兴起之前,SVM几乎是分类任务的首选。

1997年,IBM的"深蓝"超级计算机击败了国际象棋世界冠军卡斯帕罗夫。虽然深蓝主要靠暴力搜索而非真正的学习,但这场胜利极大地提振了人们对AI的信心。

2001年,利奥·布雷曼提出随机森林算法,集成学习成为热门方向。

深度学习的前奏

2006年,杰弗里·辛顿提出了深度信念网络(DBN),用逐层预训练的方法解决了深度网络训练困难的问题。这篇论文发表在《科学》杂志上,标志着深度学习研究的重启。

虽然当时影响力有限,但辛顿的坚持为几年后的深度学习革命铺平了道路。

2011年,IBM的Watson在智力竞赛节目《Jeopardy!》中击败了人类冠军。Watson结合了自然语言处理、知识图谱、机器学习等多种技术,展现了AI在理解和回答复杂问题方面的潜力。

此时,AI研究的氛围已经完全不同于寒冬时期。互联网的发展带来了海量数据,摩尔定律带来了强大的计算能力,机器学习方法日益成熟。一场革命即将到来

六、深度学习革命(2012-2017):神经网络的王者归来

2012:ImageNet的惊天逆转

2012年9月30日,ImageNet图像识别竞赛结果公布。多伦多大学的Alex Krizhevsky团队提交的AlexNet模型,错误率只有16.4%,远远超过第二名的26.2%。

这个10个百分点的差距震惊了整个计算机视觉界。要知道,前几年的进步都是零点几个百分点。

更重要的是,前几名全是传统方法,只有AlexNet使用了深度卷积神经网络。这个对比太鲜明了,所有人都意识到:游戏规则变了。

AlexNet有哪些创新?

1. 使用ReLU激活函数

传统的Sigmoid函数有个问题:当输入很大或很小时,梯度接近0,导致网络难以训练(梯度消失)。

ReLU(Rectified Linear Unit)非常简单:f(x) = max(0, x)。负数输出0,正数原样输出。这个简单的函数却带来了巨大的好处:

  • 缓解梯度消失
  • 计算速度快(不需要指数运算)
  • 产生稀疏激活(部分神经元输出0)

2. Dropout正则化

训练时随机"关闭"一些神经元(比如50%的概率),强制网络不能过度依赖某几个神经元,从而提高泛化能力。

可以这样理解:就像一个团队,如果总是让同一个人做某项工作,他请假时团队就无法运转。如果让大家轮流做,每个人都有能力,团队就更健壮。

3. 数据增强

随机裁剪、翻转、调整亮度和对比度,从一张图片生成多个变体,扩充训练数据。

4. GPU加速

使用两块NVIDIA GTX 580显卡并行训练,把训练时间从数周缩短到几天。这证明了GPU对深度学习的重要性,后来NVIDIA的股价也因AI而暴涨。

ImageNet竞赛:错误率的飞速下降

AlexNet之后,深度学习成为ImageNet竞赛的主流。看看错误率的下降速度:

2010年: 28.2% (传统方法)
2011年: 25.8% (传统方法)
2012年: 16.4% (AlexNet,深度学习首次参赛)
2013年: 11.7% (ZFNet)
2014年:  6.7% (VGGNet, GoogLeNet)
2015年:  3.6% (ResNet)
2017年:  2.3% (SENet)

人类水平: ~5%

仅仅5年时间,AI就从远远落后人类,到超越人类。

VGGNet:深度的力量

2014年,牛津大学的VGG团队证明了一个简单的道理:网络越深,效果越好

VGGNet全部使用3×3的小卷积核,但堆叠了16-19层。虽然参数量巨大(138M),但性能出色。

更重要的是,VGGNet的结构非常规整,容易理解和修改,成为后来很多工作的基准模型。

GoogLeNet:Inception的多尺度思想

同样在2014年,Google的团队提出了GoogLeNet(为了致敬LeNet,拼写成了GoogLeNet)。

它的核心是Inception模块:在同一层同时使用1×1、3×3、5×5的卷积核,以及池化操作,然后把结果拼接起来。这样可以同时捕捉不同尺度的特征。

而且通过1×1卷积降维,大大减少了参数量(只有500万参数,比VGGNet少得多),计算效率很高。

ResNet:残差连接的突破

2015年,微软亚洲研究院的何恺明团队提出了ResNet,这是深度学习历史上的又一个里程碑。

他们发现一个违反直觉的现象:当网络层数超过一定深度(比如20层)后,训练准确率反而下降。这不是过拟合(过拟合是测试准确率下降,训练准确率仍然很高),而是网络根本训练不好。

何恺明的解决方案极其简洁:加一条跳跃连接

传统网络学习的是H(x),ResNet学习的是残差F(x) = H(x) - x,然后输出F(x) + x

这个简单的改变带来了革命性的效果:

  • 可以训练152层甚至1000层的网络
  • 训练更容易,梯度能够顺畅地反向传播
  • 性能大幅提升,ImageNet错误率降到3.6%

残差连接后来成为几乎所有深度网络的标配。

七、NLP的革命(2013-2017):从Word2Vec到Transformer

深度学习不仅改变了计算机视觉,也彻底革新了自然语言处理。

Word2Vec:词语的向量表示

2013年,Google的Tomas Mikolov提出了Word2Vec,用神经网络学习词语的向量表示。

之前词语是用one-hot编码(一个词在词表中的位置为1,其他位置为0),这种表示没有捕捉任何语义信息。

Word2Vec学到的词向量有个神奇的性质:语义相近的词,向量也相近。而且支持向量运算:

king - man + woman ≈ queen
Paris - France + Italy ≈ Rome

这个突破让NLP任务的性能大幅提升。

Seq2Seq:序列到序列学习

2014年,Google提出了Seq2Seq模型,使用编码器-解码器架构(Encoder-Decoder)处理机器翻译。

编码器读取源语言句子,压缩成一个固定长度的向量(称为"思想向量"),解码器从这个向量生成目标语言句子。

这个框架统一了很多NLP任务:机器翻译、文本摘要、对话系统……都可以看作序列到序列的转换。

注意力机制:不要遗忘重要信息

Seq2Seq有个问题:长句子的信息很难完全压缩到一个固定长度的向量里,导致翻译长句子时效果下降。

2015年,Bahdanau等人提出了注意力机制(Attention)。解码器在生成每个词时,可以"关注"源句子的不同部分,而不是只看那个固定的向量。

比如翻译"我爱人工智能"到"I love artificial intelligence"时:

  • 生成"I"时主要关注"我"
  • 生成"love"时主要关注"爱"
  • 生成"artificial intelligence"时关注"人工智能"

注意力机制大幅提升了翻译质量,更重要的是,它启发了后来的Transformer架构。

2016:AlphaGo震惊世界

2016年3月,DeepMind的AlphaGo以4:1战胜围棋世界冠军李世石。

围棋的复杂度远超国际象棋(可能的棋局数量是10的170次方,宇宙原子数才10的80次方),被认为是AI的终极挑战之一。很多专家预测AI至少还需要10年才能达到人类水平。

AlphaGo的胜利提前了至少10年。

它结合了多种技术:

  • 深度卷积网络
    :评估局面和选择落子
  • 蒙特卡洛树搜索
    :规划未来走法
  • 强化学习
    :通过自我对弈不断提升
  • 监督学习
    :从人类棋谱中学习

更震撼的是AlphaGo的第37手(第二局)和第78手(第四局),那些违反人类直觉的"神之一手",让人们意识到:AI不只是在模仿人类,它可能发现了人类没有发现的规律。

2017:Transformer横空出世

2017年6月,Google Brain团队发表了论文《Attention is All You Need》,提出了Transformer架构。

这篇论文的标题很有意思:只需要注意力机制就够了。它抛弃了之前NLP中常用的循环神经网络(RNN)和卷积神经网络(CNN),完全基于注意力机制。

Transformer的核心创新

1. 自注意力(Self-Attention)

让句子中的每个词都和其他所有词计算相关性,从而捕捉长距离依赖关系。

比如"银行"这个词,在"河岸"和"金融机构"两个语境中含义不同,自注意力机制可以根据上下文动态调整"银行"的表示。

2. 多头注意力(Multi-Head Attention)

不是只计算一次注意力,而是并行计算多次(比如8次),每次关注不同的方面,然后拼接起来。

就像我们理解一句话时,会同时关注语法、语义、情感等多个角度。

3. 并行计算

RNN是串行的,必须处理完第一个词才能处理第二个词。Transformer可以并行处理所有词,大大加快了训练速度。

4. 位置编码(Positional Encoding)

由于没有循环结构,需要额外添加位置信息,让模型知道词语的顺序。

Transformer最初是为机器翻译设计的,但它的影响远不止于此。后来的BERT、GPT等大语言模型,都是基于Transformer架构。可以说,Transformer开启了大模型时代

八、大模型时代(2018-至今):从BERT到GPT-4

2018:BERT的双向理解

2018年10月,Google发布了BERT(Bidirectional Encoder Representations from Transformers),刷新了11项NLP任务的记录。

BERT的创新在于预训练+微调的范式:

预训练阶段:在海量无标注文本上训练(比如维基百科),学习通用的语言表示。训练任务包括:

  • 掩码语言模型(MLM)
    :随机遮住15%的词,让模型预测。比如"我爱[MASK]学习",预测出"AI"。
  • 下一句预测(NSP)
    :判断两个句子是否相邻。

微调阶段:在特定任务的少量标注数据上微调,快速适应新任务。

这个范式非常强大:预训练模型就像一个受过通识教育的人,学习新技能时能够快速上手。

BERT使用的是Transformer的Encoder部分,擅长理解任务,比如文本分类、问答、命名实体识别。

2018-2020:GPT系列的生成能力

几乎同时,OpenAI走了另一条路线。

GPT-1(2018年6月)

  • 使用Transformer的Decoder部分
  • 单向语言模型(从左到右预测下一个词)
  • 1.17亿参数
  • 提出了"预训练+微调"范式(比BERT早几个月,但影响力较小)

GPT-2(2019年2月)

  • 15亿参数(是GPT-1的13倍)
  • 在更大规模的数据集WebText上训练(800万网页,40GB文本)
  • 展现了零样本学习能力:不需要微调,直接完成任务

GPT-2的文本生成质量非常高,OpenAI担心被恶意使用(生成假新闻、垃圾邮件等),一开始只发布了小模型,完整版延迟了9个月才发布。这个决定引发了关于AI安全和开放性的大讨论。

GPT-3(2020年5月)

  • 1750亿参数(是GPT-2的100多倍)
  • 45TB训练数据
  • 展现了惊人的 少样本学习(Few-Shot Learning)  能力

GPT-3不需要微调,只需要在提示(Prompt)中给几个例子,就能完成各种任务:

把这些句子翻译成法语:
"Hello" → "Bonjour"
"Thank you" → "Merci"
"How are you?" → "Comment allez-vous?"
"I love AI" → ?

GPT-3会输出:"J'aime l'IA"

更神奇的是,GPT-3展现了一些涌现能力(Emergent Abilities):模型规模达到一定程度后,突然获得了训练时没有明确教授的能力,比如简单的数学推理、代码生成、甚至写小说。

规模定律:大力出奇迹?

2020年,OpenAI发表了关于 规模定律(Scaling Laws) 的研究,发现模型性能与三个因素呈幂律关系:

  • 模型参数量(N)
  • 训练数据量(D)
  • 计算量(C)

简单说就是:模型越大、数据越多、算力越强,效果越好。而且这个关系非常稳定,可以用来预测更大模型的性能。

这个发现引发了"大力出奇迹"的模型军备竞赛。各大公司和研究机构纷纷训练越来越大的模型。

2022:ChatGPT的现象级成功

2022年11月30日,OpenAI发布了ChatGPT。

技术上,ChatGPT基于GPT-3.5,并使用 RLHF(人类反馈强化学习) 进行优化:

第一步:监督微调(SFT) 人工标注员编写高质量的对话示例,微调GPT-3.5。

第二步:训练奖励模型(RM) 对同一个问题生成多个回答(比如4个),让标注员排序(A > B > D > C)。用这些排序数据训练一个奖励模型,学会给回答打分。

第三步:强化学习优化(PPO) 用奖励模型作为反馈,通过PPO算法(一种强化学习算法)优化ChatGPT,让它生成更高得分的回答。

这个过程让ChatGPT更符合人类偏好:

  • 更有帮助(Helpful):回答用户的真实需求
  • 更诚实(Honest):不编造不知道的信息
  • 更无害(Harmless):拒绝有害的请求

ChatGPT的成功超出了所有人的预期:

  • 5天破100万用户
  • 2个月破1亿用户(史上最快)
  • 引发全球AI热潮
  • 微软、Google、百度等巨头纷纷跟进

为什么ChatGPT比之前的模型更成功?

  1. 强大的基座模型
    :GPT-3.5本身能力就很强
  2. RLHF对齐
    :更符合人类使用习惯
  3. 对话形式
    :比API更友好,降低了使用门槛
  4. 免费开放
    :让普通人都能体验AI的力量
  5. 时机成熟
    :人们对AI的接受度提高

2023:百模大战

ChatGPT的成功引爆了大模型竞赛。2023年被称为"百模大战"元年。

国外主要模型

  • GPT-4(2023年3月)
    :OpenAI的多模态模型,支持图像输入,推理能力大幅提升
  • Claude(Anthropic)
    :强调安全性和可控性,上下文长度达到100K tokens
  • Gemini(Google)
    :多模态大模型,Ultra版本在多项基准测试中超过GPT-4
  • LLaMA(Meta)
    :开源模型,7B到65B多个版本,引发开源社区的创新浪潮

国内主要模型

  • 文心一言(百度)
    :2023年3月发布,中文能力强
  • 通义千问(阿里)
    :多模态能力,多个参数规模版本
  • 混元(腾讯)
    :超过1000亿参数
  • 星火(科大讯飞)
    :强调多模态交互
  • ChatGLM(清华)
    :开源模型,适合学术研究和个人开发

开源模型崛起: Meta的LLaMA泄露后,开源社区迅速跟进:

  • Alpaca
    :斯坦福基于LLaMA-7B微调,只用5万指令数据
  • Vicuna
    :性能接近ChatGPT的90%
  • WizardLM、Orca
    :改进的训练方法
  • LLaMA 2
    :Meta官方开源,可商用

开源模型证明了一个重要事实:不需要数千亿参数,通过高质量数据和改进的训练方法,小模型也能达到很好的效果

多模态大模型:不只是文字

图像生成

  • DALL-E 2(OpenAI)
    :文本生成图像,图像编辑
  • Stable Diffusion(Stability AI)
    :开源扩散模型,改变了图像生成领域
  • Midjourney
    :艺术创作的利器,生成质量极高
  • 文心一格、通义万相
    :国内的图像生成模型

视频生成

  • Runway Gen-2
    :文字和图像生成视频
  • Pika
    :视频编辑和生成

多模态理解

  • GPT-4V
    :支持图像输入,可以理解图表、识别图像内容
  • Gemini
    :原生多模态,可以同时处理文本、图像、音频、视频

九、AI的三种学习方式

了解了AI的发展历程,我们来看看AI是如何学习的。

监督学习:像老师教学生

核心思想:给机器大量的"问题+答案",让它学习规律。

就像教小孩认水果:

这是苹果(给图片+标签)
这是香蕉(给图片+标签)
这是橙子(给图片+标签)
...
现在给一张新图片,你说这是什么?

两大类型

分类(Classification):输出是类别

  • 垃圾邮件识别:垃圾/正常
  • 图像识别:猫/狗/鸟...
  • 疾病诊断:健康/患病

回归(Regression):输出是数值

  • 房价预测:根据面积、位置等预测价格
  • 股票预测:预测明天的股价
  • 温度预测:根据历史数据预测未来温度

优点:效果好,训练相对简单 缺点:需要大量标注数据,标注成本高

无监督学习:自己发现规律

核心思想:只给数据,不给标签,让机器自己找规律。

像让小孩自己给水果分类,他可能按颜色分(红色一组、黄色一组),也可能按形状分(圆形一组、长形一组)。具体怎么分,机器自己决定。

主要任务

聚类(Clustering):把相似的数据分到一组

  • 客户细分:根据购买行为把客户分组
  • 新闻分类:把相似主题的新闻聚在一起
  • 基因分类:根据基因特征把生物分组

降维(Dimensionality Reduction):减少特征数量,保留主要信息

  • 数据可视化:把高维数据投影到2D/3D,方便观察
  • 特征提取:去除冗余特征,提高模型效率
  • 图像压缩:保留主要信息,减小文件大小

优点:不需要标注,可以发现未知模式 缺点:结果难以评估,需要人工解释

强化学习:在试错中成长

核心思想:在与环境的交互中,通过奖励和惩罚学习最优策略。

就像训练宠物狗:

  • 做对了(坐下),给零食(奖励+10)
  • 做错了(咬人),批评(奖励-10)
  • 重复多次,狗就学会了什么该做、什么不该做

经典案例

AlphaGo

  • 状态:当前棋盘局面
  • 动作:在某个位置落子
  • 奖励:赢了+1,输了-1
  • 通过自我对弈百万局,学会了下围棋

游戏AI

  • OpenAI Five打DOTA 2
  • AlphaStar打星际争霸
  • 通过与自己或人类对手的对战,不断提升策略

自动驾驶

  • 状态:路况、车辆位置
  • 动作:加速、刹车、转向
  • 奖励:安全到达+10,撞车-100

推荐系统

  • 状态:用户历史行为
  • 动作:推荐某个物品
  • 奖励:用户点击+1,用户不感兴趣-1

优点:适合序列决策问题,可以发现超越人类的策略 缺点:训练困难,需要大量试错,可能不稳定

十、深度学习为何如此强大?

在理解了学习方式后,我们来看看深度学习相比传统方法的优势。

传统方法的局限

假设我们要识别图片中的猫。

传统方法需要人工设计特征:

  1. 提取边缘(猫有尖耳朵的轮廓)
  2. 检测纹理(猫有毛发的纹理)
  3. 分析颜色分布(猫可能是橘色、黑色、白色...)
  4. 计算形状特征(猫的身体比例) ...

然后把这些特征输入机器学习算法(如SVM)进行分类。

问题

  • 特征设计需要领域专家,费时费力
  • 不同任务需要不同特征,无法通用
  • 复杂场景下(如猫被遮挡、侧面、蜷缩),手工特征容易失效
  • 高维数据(如图像是几十万个像素)难以处理

深度学习的优势

端到端学习:直接从原始像素到类别,不需要人工设计特征。

传统方法:
原始图像 → 人工特征提取 → 机器学习模型 → 分类结果

深度学习:
原始图像 → 神经网络 → 分类结果

层次化表示学习

  • 第1层:检测边缘、颜色
  • 第2层:组合边缘形成纹理、简单形状
  • 第3层:检测物体的部分(耳朵、眼睛、尾巴)
  • 第4层:识别完整的物体(猫)

每一层都在前一层的基础上抽象出更高级的特征,最终形成对"猫"的整体理解。

强大的表达能力 : 理论上,足够深的神经网络可以逼近任意函数(通用逼近定理)。这意味着,只要数据足够,网络足够大,深度学习几乎可以学习任何规律。

规模效应

  • 传统方法:数据增加到一定程度后,性能提升趋于平缓
  • 深度学习:数据越多、模型越大,效果持续提升

这就是为什么互联网巨头在深度学习时代占据优势——它们有海量数据。

深度学习成功的三大要素

大数据

  • ImageNet:120万标注图像
  • GPT-3:45TB文本数据
  • 互联网提供了前所未有的数据规模

大算力

  • GPU:相比CPU,训练速度提升10-100倍
  • TPU:Google专为深度学习设计的芯片
  • 分布式训练:用成百上千个GPU并行训练

好算法

  • ReLU激活函数:缓解梯度消失
  • Dropout:防止过拟合
  • Batch Normalization:加速训练
  • 残差连接:使超深网络成为可能
  • Transformer:并行计算、长距离依赖建模

十一、大模型的关键技术

预训练+微调:站在巨人的肩膀上

传统方法:每个任务从头训练一个模型

  • 图像分类:训练一个分类器
  • 目标检测:训练一个检测器
  • 语义分割:训练一个分割器
  • 每次都要大量标注数据,训练很久

预训练+微调

  1. 预训练
    :在海量无标注数据上学习通用表示(可能训练数周到数月)
  2. 微调
    :在特定任务的少量标注数据上快速适应(可能只需几小时)

好处

  • 节省数据:特定任务只需少量标注
  • 节省时间:微调比从头训练快得多
  • 效果更好:预训练模型已经学到了丰富的知识

类比

  • 从头训练:让一个人从婴儿开始学习,直接学习某个专业技能(如法律)
  • 预训练+微调:让一个受过通识教育的成年人,学习专业技能

提示工程:如何和AI对话

大模型(尤其是GPT-3之后)有个神奇的能力:不需要微调,只需要设计好提示词(Prompt),就能完成任务

基础提示

翻译成英语:我爱人工智能

改进提示(加上角色和格式要求)

你是一位专业的英语翻译。请将下面的中文翻译成地道的英语。

中文:我爱人工智能
英语:

少样本提示(Few-Shot)

请将数字转换为中文大写:

1 → 壹
2 → 贰
10 → 拾
25 → ?

思维链提示(Chain-of-Thought): 让模型一步步思考,提高复杂推理的准确率。

普通提示:
问:张三有5个苹果,给了李四2个,又买了3个,现在有几个?
答:6个

思维链提示:
问:张三有5个苹果,给了李四2个,又买了3个,现在有几个?
答:让我们一步步思考:
1. 张三开始有5个苹果
2. 给了李四2个,剩下5-2=3个
3. 又买了3个,最后有3+3=6个
所以答案是6个。

研究发现,加上"让我们一步步思考"这样的提示,模型在数学、逻辑推理等任务上的准确率能提升10-20%。

LoRA:高效微调大模型

GPT-3有1750亿参数,全量微调需要巨大的显存和时间。有没有办法只训练一小部分参数,就达到接近全量微调的效果?

LoRA(Low-Rank Adaptation) 就是这样的技术:

原理:冻结原始权重矩阵W,训练两个小矩阵A和B

原始:W (比如 4096×4096,约1600万参数)
LoRA:W保持不变,训练 A (4096×8) 和 B (8×4096)
新权重:W' = W + AB

这样只需要训练约6.5万参数(是原来的0.4%),就能达到全量微调90%以上的效果。

好处

  • 显存需求大幅降低(可以在消费级GPU上微调大模型)
  • 训练速度快
  • 可以为不同任务训练多个LoRA,快速切换
  • 原始模型不变,方便分享和部署

模型量化:让大模型跑在手机上

GPT-3完整模型需要350GB显存(1750亿参数 × 2字节/参数),普通人根本用不起。

量化技术可以大幅减小模型:

FP32 → FP16

  • 单精度(32位浮点)→ 半精度(16位浮点)
  • 模型大小减半
  • 精度损失很小(<1%)

FP16 → INT8

  • 半精度 → 8位整数
  • 模型大小再减半(相比FP32减少75%)
  • 推理速度提升2-4倍
  • 精度损失2-5%

INT8 → INT4

  • 4位整数量化
  • 模型大小减少87.5%(相比FP32)
  • 一些质量损失,但大多数应用可接受

例子

  • LLaMA-7B原始模型:13GB
  • INT8量化后:7GB(可以在很多显卡上运行)
  • INT4量化后:3.5GB(可以在手机上运行)

十二、AI的应用场景

计算机视觉

图像分类:判断图片内容

  • 医疗影像诊断:肺炎、肿瘤检测
  • 质量检测:工业产品瑕疵识别
  • 农业:作物病虫害识别

目标检测:找出图片中的物体及位置

  • 自动驾驶:检测行人、车辆、红绿灯
  • 安防监控:异常行为检测
  • 零售:无人超市的商品识别

图像分割:精确划分图片的每个像素

  • 医疗:器官、病灶的精确分割
  • 遥感:土地利用分类
  • 视频编辑:智能抠图、背景替换

人脸识别

  • 手机解锁
  • 门禁考勤
  • 支付验证
  • 罪犯追踪(有争议)

图像生成

  • Midjourney、Stable Diffusion:艺术创作、设计辅助
  • 老照片修复、上色
  • 医学图像增强

自然语言处理

文本分类

  • 情感分析:评论是正面还是负面
  • 新闻分类:自动归类到科技、体育、娱乐等
  • 垃圾邮件过滤

命名实体识别

  • 从文本中提取人名、地名、组织机构
  • 知识图谱构建
  • 信息检索

机器翻译

  • Google翻译、DeepL
  • 实时字幕翻译
  • 跨语言搜索

问答系统

  • ChatGPT、Claude等对话AI
  • 智能客服
  • 搜索引擎的直接回答

文本生成

  • AI写作:新闻、营销文案
  • 代码生成:GitHub Copilot、Cursor
  • 摘要生成:长文档自动总结

语音技术

语音识别(ASR)

  • 语音输入法
  • 会议转写
  • 智能音箱
  • OpenAI的Whisper:支持98种语言,准确率接近人类

语音合成(TTS)

  • 有声读物
  • 导航语音
  • 虚拟主播
  • 辅助视障人士

声纹识别

  • 银行身份验证
  • 声控解锁

推荐系统

协同过滤

  • 根据"相似用户喜欢相似物品"推荐
  • 亚马逊的"购买此商品的用户还买了..."

深度学习推荐

  • 抖音、快手的短视频推荐
  • 淘宝、京东的商品推荐
  • Netflix的电影推荐
  • YouTube的视频推荐

多模态推荐

  • 结合商品图片、标题、评论、用户行为
  • 更精准的个性化推荐

其他重要应用

自动驾驶

  • 感知:摄像头、激光雷达检测路况
  • 决策:规划行驶路线
  • 控制:转向、加速、刹车
  • 代表:Tesla FSD、Waymo、百度Apollo

医疗健康

  • 疾病诊断:从医学影像诊断疾病,某些领域准确率超过医生
  • 药物发现:AI筛选候选药物分子,大幅缩短研发周期
  • 蛋白质结构预测:AlphaFold解决了50年的生物学难题

金融科技

  • 欺诈检测:实时识别异常交易
  • 信用评分:评估贷款风险
  • 量化交易:AI分析市场,自动交易
  • 智能投顾:个性化投资建议

科学研究

  • 天文:从海量数据中发现新天体
  • 气象:更准确的天气预报
  • 材料科学:发现新材料
  • 核聚变:Google用AI优化了核聚变反应堆的控制

十三、AI发展的四个时代

回顾70多年的历史,可以总结出四个时代:

规则时代(1950-1980)

  • 核心:人工编写规则和知识
  • 代表:专家系统
  • 局限:知识获取困难,无法学习

统计时代(1980-2010)

  • 核心:从数据中学习规律
  • 代表:SVM、随机森林
  • 局限:依赖人工特征工程

深度学习时代(2010-2020)

  • 核心:端到端学习,自动特征提取
  • 代表:CNN、RNN、Transformer
  • 突破:大数据+大算力+深度神经网络

大模型时代(2020-至今)

  • 核心:预训练大模型+提示学习
  • 代表:GPT、BERT、多模态模型
  • 特点:涌现能力、少样本学习、通用性强

十四、写在最后

从图灵提出"机器能思考吗",到ChatGPT引发全球AI热潮,人工智能走过了曲折但壮丽的70年。

这条路上有两次寒冬,无数研究者在质疑中坚持;有ImageNet的惊天逆转,证明深度学习的威力;有AlphaGo的"神之一手",展现AI超越人类的可能;有ChatGPT的现象级成功,让AI真正走进千家万户。

今天的AI已经可以:

  • 写出流畅的文章和代码
  • 生成逼真的图像和视频
  • 理解和翻译多种语言
  • 诊断疾病、发现新药
  • 辅助科学研究、提升工作效率

但我们也要清醒地认识到,当前的AI仍然是"弱人工智能"——只能在特定任务上表现出色,缺乏真正的理解、常识和通用智能。通往"强人工智能"的路还很漫长。

不过,AI的发展速度超乎想象。谁能想到,仅仅10年前,图像识别的准确率还不如人类,而现在已经远远超过。谁又能预测,10年后的AI会是什么样子?

唯一可以确定的是:AI时代已经来临,它将深刻地改变我们的工作、生活和思考方式。

了解AI的历史,不只是为了满足好奇心,更是为了更好地理解现在,把握未来。


关键时间线:

  • 1950:图灵测试
  • 1956:达特茅斯会议,AI诞生
  • 1958:感知机
  • 1969:感知机局限性被证明
  • 1974-1980:第一次AI寒冬
  • 1986:反向传播算法
  • 1987-1993:第二次AI寒冬
  • 1997:深蓝战胜国际象棋冠军
  • 2006:深度信念网络,深度学习复兴
  • 2012:AlexNet,深度学习革命
  • 2016:AlphaGo战胜李世石
  • 2017:Transformer架构
  • 2018:BERT、GPT-1
  • 2020:GPT-3
  • 2022:ChatGPT
  • 2023:百模大战,多模态爆发

☟☟☟

☞人工智能产业链联盟筹备组征集公告☜


精选报告推荐:

11份清华大学的DeepSeek教程,全都给你打包好了,直接领取:


【清华第一版】DeepSeek从入门到精通

【清华第二版】DeepSeek如何赋能职场应用?


【清华第三版】普通人如何抓住DeepSeek红利?

【清华第四版】DeepSeek+DeepResearch让科研像聊天一样简单?

【清华第五版】DeepSeek与AI幻觉

【清华第六版】DeepSeek赋能家庭教育

【清华第七版】文科生零基础AI编程:快速提升想象力和实操能力

【清华第八版】DeepSeek政务场景应用与解决方案

【清华第九版】迈向未来的AI教学实验

【清华第十版】DeepSeek赋能品牌传播与营销

【清华第十一版】2025AI赋能教育:高考志愿填报工具使用指南

 10份北京大学的DeepSeek教程

【北京大学第一版】DeepSeek与AIGC应用

【北京大学第二版】DeepSeek提示词工程和落地场景

【北京大学第三版】Deepseek 私有化部署和一体机

【北京大学第四版】DeepSeek原理与落地应用

【北京大学第五版】Deepseek应用场景中需要关注的十个安全问题和防范措施

【北京大学第六版】DeepSeek与新媒体运营

【北京大学第七版】DeepSeek原理与教育场景应用报告

【北京大学第八版】AI工具深度测评与选型指南

【北京大学第九版】AI+Agent与Agentic+AI的原理和应用洞察与未来展望

【北京大学第十版】DeepSeek在教育和学术领域的应用场景与案例(上中下合集)

8份浙江大学的DeepSeek专题系列教程

浙江大学DeepSeek专题系列一--吴飞:DeepSeek-回望AI三大主义与加强通识教育

浙江大学DeepSeek专题系列二--陈文智:Chatting or Acting-DeepSeek的突破边界与浙大先生的未来图景

浙江大学DeepSeek专题系列三--孙凌云:DeepSeek:智能时代的全面到来和人机协作的新常态

浙江大学DeepSeek专题系列四--王则可:DeepSeek模型优势:算力、成本角度解读

浙江大学DeepSeek专题系列五--陈静远:语言解码双生花:人类经验与AI算法的镜像之旅

浙江大学DeepSeek专题系列六--吴超:走向数字社会:从Deepseek到群体智慧

浙江大学DeepSeek专题系列七--朱朝阳:DeepSeek之火,可以燎原

浙江大学DeepSeek专题系列八--陈建海:DeepSeek的本地化部署与AI通识教育之未来

4份51CTO的《DeepSeek入门宝典》

51CTO:《DeepSeek入门宝典》:第1册-技术解析篇

51CTO:《DeepSeek入门宝典》:第2册-开发实战篇

51CTO:《DeepSeek入门宝典》:第3册-行业应用篇

51CTO:《DeepSeek入门宝典》:第4册-个人使用篇

5份厦门大学的DeepSeek教程

【厦门大学第一版】DeepSeek大模型概念、技术与应用实践

【厦门大学第二版】DeepSeek大模型赋能高校教学和科研

【厦门大学第三版】DeepSeek大模型及其企业应用实践

【厦门大学第四版】DeepSeek大模型赋能政府数字化转型

【厦门大学第五版】DeepSeek等大模型工具使用手册-实战篇

10份浙江大学的DeepSeek公开课第二季专题系列教程

【精选报告】浙江大学公开课第二季:《DeepSeek技术溯源及前沿探索》(附PDF下载)

【精选报告】浙江大学公开课第二季:2025从大模型、智能体到复杂AI应用系统的构建——以产业大脑为例(附PDF下载)

【精选报告】浙江大学公开课第二季:智能金融——AI驱动的金融变革(附PDF下载)

【精选报告】浙江大学公开课第二季:人工智能重塑科学与工程研究(附PDF下载)

【精选报告】浙江大学公开课第二季:生成式人工智能赋能智慧司法及相关思考(附PDF下载)

【精选报告】浙江大学公开课第二季:AI大模型如何破局传统医疗(附PDF下载)

【精选报告】浙江大学公开课第二季:2025年大模型:从单词接龙到行业落地报告(附PDF下载)

【精选报告】浙江大学公开课第二季:2025大小模型端云协同赋能人机交互报告(附PDF下载)

【精选报告】浙江大学公开课第二季:DeepSeek时代:让AI更懂中国文化的美与善(附PDF下载)

【精选报告】浙江大学公开课第二季:智能音乐生成:理解·反馈·融合(附PDF下载)

6份浙江大学的DeepSeek公开课第三季专题系列教程

【精选报告】浙江大学公开课第三季:走进海洋人工智能的未来(附PDF下载)

【精选报告】浙江大学公开课第三季:当艺术遇见AI:科艺融合的新探索(附PDF下载)

【精选报告】浙江大学公开课第三季:AI+BME,迈向智慧医疗健康——浙大的探索与实践(附PDF下载)

【精选报告】浙江大学公开课第三季:心理学与人工智能(附PDF下载)

【精选报告】浙江大学公开课第三季:人工智能赋能交通运输系统——关键技术与应用(附PDF下载)

【精选报告】浙江大学公开课第三季:人工智能与道德进步(附PDF下载)


相关阅读

干货推荐:
【AI加油站】人工智能简史:关于人工智能的过去、现在与未来(附PDF下载)
AI加油站】第一部:《大型语言模型应用检索增强生成:改变搜索、推荐和 AI 助手》附下载
【AI加油站】第二部:《程序员的自我修炼手册》(附下载)
【AI加油站】第三部:《大规模语言模型:从理论到实践》(附下载)
【AI加油站】第四部:《使用生成式人工智能和Python开始数据分析》(附下载)
【AI加油站】第五部:《使用生成式人工智能和Python开始数据分析》(附下载)
【AI加油站】第六部:《时间序列:建模、计算与推断》(附下载)
【AI加油站】第七部:《因果关系的逻辑理论的好书-A Logical Theory of Causality》(附下载)

【AI加油站】第八部:《模式识别(第四版)-模式识别与机器学习》(附下载)

【AI加油站】第九部:《Python深度学习(中文版)》(附下载)
【AI加油站】第十部:《机器学习方法》(附下载)
【AI加油站】第十一部:《深度学习》(附下载)
【AI加油站】第十二部:《从零开始的机器学习》(附下载)
【AI加油站】第十三部:《Transformer入门到精通》(附下载)
【AI加油站】第十四部:《LLM 应用开发实践笔记》(附下载)
【AI加油站】第十五部:《大模型基础 完整版》(附下载)
【AI加油站】第十六部:《从头训练大模型最佳实践》(附下载)
【AI加油站】第十七部:《大语言模型》(附下载)
【AI加油站】第十八部:《深度强化学习》(附下载)
【AI加油站】第十九部:清华大学《大模型技术》(附下载)
【AI加油站】第二十部:Prompt入门神书-《Prompt 学习指南》(附下载)
【AI加油站】第二十一部:吴恩达&open AI联合推出《大模型通关指南》(附下载)
【AI加油站】第二十二部:《李宏毅深度学习教程》值得反复阅读的神书!(附下载)
【AI加油站】第二十三部:Prompt经典中文教程-《提示工程指南》(附下载)
【AI加油站】第二十四部:爆火下载28万次!MIT最新神书《理解深度学习》(附下载)
【AI加油站】第二十五部:LLM4大名著,OpenAI专家强推《深度解析:大语言模型理论与实践》(附下载)
【AI加油站】第二十六部:NLP大牛Thomas Wolf等新书《Transformer自然语言处理》(附下载)
【AI加油站】第二十七部:哈工大博士耗时一年整理《PyTorch常用函数手册》,轻松掌握PyTorch的各种操作(附PDF下载)
【AI加油站】第二十八部:大模型炼丹大师必备《深度学习调优指南中文版-系统性优化模型》(附下载)
【AI加油站】第二十九部:炸裂发布!《大语言模型:导论》重磅发布!(附下载)
【AI加油站】第三十部:最值得读的LLM书!下载量10w+!《基于Transformer和扩散模型的生成式AI》(附下载)
【AI加油站】第三十一部:RL稀缺宝典!《强化学习的艺术》(附下载)
【AI加油站】第三十二部:一本醍醐灌顶的教科书!《大语言模型提示工程:构建LLM应用的艺术与科学》(附下载)
【AI加油站】第三十三部:机器学习好评榜第一《机器学习基础》(附下载)
【AI加油站】第三十四部:所有大模型领域学习者必读,没有之一!由深度学习三巨头联合撰写!(附下载)
【AI加油站】第三十五部:{AI炼丹神书}——从0到1榨干深度学习模型每一滴性能的终极战术手册《深度学习调优指南》(附下载)
【AI加油站】第三十六部:面向生产环境的大型语言模型实战手册《LLM 大语言模型构建指南》(附下载)
【AI加油站】第三十七部:《深度学习的数学导论:方法、实现与理论》从神经网络架构到物理信息模型的全景综述(附下载)
【AI加油站】第三十八部:下载量10w+!《大型语言模型:语言理解和生成》从文本分类到主题建模的实战指南(附下载)
【AI加油站】第三十九部:包教包会!《从零开始构建大语言模型的关键要点》大模型训练全景指南:从0到1的系统性最佳实践(附下载)
【AI加油站】第四十部:《大规模机器学习训练工程实战手册》——从硬件选型到故障恢复的系统性指南(附下载)
【AI加油站】第四十一部:《ChatGPT后训练全景解析:技术演进、核心挑战与未来方向》(附下载)
【AI加油站】第四十二部:《百页机器学习书》:从算法到实战的全景指南(附下载)
【AI加油站】第四十三部:《掌握大语言模型》核心知识速览:从NLP基础到LLM前沿实践(附下载)
【AI加油站】第四十四部:《精通PyTorch》-从CNN到Transformer、LLM、GNN的端到端实战图谱(附下载)
【AI加油站】第四十五部:《图神经网络导论》-全景拆解:从数学基石到落地应用的知识地图(附下载)
【AI加油站】第四十六部:谷歌大佬编写,我唯一熬夜看完的机器学习神作《机器学习:概率视角》(附下载)
【AI加油站】第四十七部:复旦大学张奇老师《自然语言处理导论》(附下载)
【AI加油站】第四十八部:Github持续霸榜!「Leetcode刷题笔记」解题思路/代码/模板开放下载!(附下载)
【AI加油站】第四十九部:下载10W+爆火神书《基于LangChain进行生成式AI开发》(附下载)
【AI加油站】第五十部:打破 “AI 神话”!《AI 3.0 》剖析机器智能的真实能力,探讨人机共生的未来图景(附下载)
【AI加油站】第五十一部:从 PGC 到 AIGC:内容生产的颠覆性革命,一文看透智能创作如何重塑经济与社会(附下载)
【AI加油站】第五十二部:《人工智能简史》穿越 AI 百年:从 “机器替代” 到 “人机共生” 的技术革命与人性思考(附下载)
【AI加油站】第五十三部:智能无疆:《人工智能:现代方法(第 4 版)》全景解读(附下载)
【AI加油站】第五十四部:《深度学习革命》从学术寒冬到全球科技争霸的十年史诗(附下载)
【AI加油站】第五十五部:《生命 3.0》人工智能时代的进化史诗与未来抉择(附下载)
【AI加油站】第五十六部:《我看见的世界-李飞飞自传》从移民少女到 AI 先驱:李飞飞与 ImageNet 的破晓之路(附下载)
【AI加油站】第五十七部:《智人之上》解码从石器时代到 AI 时代的信息网络密码(附下载)
【AI加油站】第五十八部:《千脑智能》解锁智能本质:从千脑智能理论到人类与 AI 的未来图景(附下载)
【AI加油站】第五十九部:《AI极简经济学》解锁 AI 商业价值:从预测核心到战略重构的极简经济学指南(附下载)
【AI加油站】第六十部:深入探索《人工智能哲学》:从理论根基到核心争议与未来展望(附下载)
【AI加油站】第六十一部:解构 《人类 2.0》:硅谷视角下科技重塑未来的全景蓝图(附下载)
【AI加油站】第六十二部:以逻辑、艺术与音乐为钥,解锁思维本质的奇书 ——《哥德尔、艾舍尔、巴赫》(附下载)
【AI加油站】第六十三部:深入探索《皇帝新脑》:电脑、人脑与物理定律的跨学科思辨(附下载)
【AI加油站】第六十四部:解锁 《Python 自然语言处理》:从基础到实战的全方位指南(附下载)
【AI加油站】第六十五部:深入解析《人工智能:复杂问题求解的结构和策略》核心内容(附下载)
【AI加油站】第六十六部:从理论到实践:《人工智能:一种现代方法(第二版)》引领你走进 AI 世界(附下载)
【AI加油站】第六十七部:从像素到智能视觉:解读《图像处理、分析与机器视觉》的核心价值(附下载)
【AI加油站】第六十八部:洞悉数据挖掘本质:《数据挖掘:概念与技术》核心概念与技术体系剖析(附下载)
【AI加油站】第六十九部:拒绝 “人工”,拥抱 “智能”:《机器学习》的终极修炼手册(附下载)
【AI加油站】第七十部:《机器视觉》的“圣经”:从成像到场景分析的完整旅程(附下载)
【AI加油站】第七十一部:从入门到实战:一口气读完《机器学习实战》全栈笔记(附下载)
【AI加油站】第七十二部:穿越不确定性的智慧之舟:《贝叶斯统计推断》全景纵览(附下载)
【AI加油站】第七十三部:《深入理解机器学习:从原理到算法》的全景式解读(附下载)
【AI加油站】第七十四部:《游戏人工智能编程案例精粹》全景深读:从数学物理到实战AI,一本书带你通关智能开发!(附下载)
【AI加油站】第七十五部:《神经网络与机器学习》:一部贯通感知器、反向传播与强化学习的“AI筑基之书”(附下载)
AI机器人设计推荐:
【AI加油站】机器人设计系列一:《IBM Robocode人工智能机器人研究》从Java编程到智能战斗系统指南(附下载)
【AI加油站】机器人设计系列二:《PVCBOT零基础机器人制作》从PVC线槽到专属机器人的完整入门指南(附下载)
【AI加油站】机器人设计系列三:《ROBOTC与机器人程序设计》从NXT到TETRIX的完整实战指南(附下载)
【AI加油站】机器人设计系列四:《多关节机器人原理与维修》全本技术精要总结(附下载)
【AI加油站】机器人设计系列五:《工业机器人应用与维护职业认知》——基于“任务驱动”的中职人才培养全景教材解析(附下载)
【AI加油站】机器人设计系列六:带你走进《机器人世界》:从古代机关到未来伙伴的全景漫游(附下载)
【AI加油站】机器人设计系列七:从零件到成品:《爱上机器人 —— 机器人制作晋级攻略》带你玩转机器人世界!(附下载)
【AI加油站】机器人设计系列八:从古代木牛流马到未来智能危机:机器人发展的千年探索与思考(附下载)
【AI加油站】机器人设计系列九:一文读懂固定翼空中机器人:从原理到应用的全方位技术指南(附下载)
【AI加油站】机器人设计系列十:排爆机器人技术全景:从核心突破到实践应用的创新之路(附下载)
【AI加油站】机器人设计系列十一:全球空战机器人技术发展与军事应用展望(附下载
【AI加油站】机器人设计系列十二:人工智能:复杂问题求解的结构和策略(附下载)
【AI加油站】机器人设计系列十三:双足步行机器人仿真设计核心(附下载)
【AI加油站】机器人设计系列十四:探秘自主移动机器人:从机械运动到智能感知,这本名校教材《自主移动机器人导论》带你入门(附下载)
【AI加油站】机器人设计系列十五:聚焦仿人机器人技术前沿:第三届国际学术会议论文集深度解读(附下载)
【AI加油站】机器人设计系列十六:深入解析《工业机器人》:从理论基础到实际应用的全方位指南(附下载)
【AI加油站】机器人设计系列十七:《机器人系统设计及应用》:从理论基石到产业应用的深度解析(附下载)
【AI加油站】机器人设计系列十八:《机器人学基础》穿越机器纪元:从原理基石到智能未来的机器人学全景解读(附下载)
【AI加油站】机器人设计系列十九:《机器人太空飞船》星际漫游的机械先锋:机器人太空飞船的发展史诗与未来征途(附下载)
【AI加油站】机器人设计系列二十:乐高筑梦:从趣味入门到创新实践的机器人探索之旅(附下载)
【AI加油站】机器人设计系列二十一:解码智能本质:从大脑皮层工作原理到人工智能的未来图景(附下载)
【AI加油站】机器人设计系列二十二:深度解析《神经网络与机器人科研项目申请与实践》:从理论创新到项目落地的全方位指南(附下载)
【AI加油站】机器人设计系列二十三:《神奇的机器人》揭开机器人的神秘面纱:从结构原理到未来展望的全方位探索(附下载)
【AI加油站】机器人设计系列二十四:《手上的机器人》科技赋能生活:从医疗模拟到深海探测的创新图鉴(附下载)
【AI加油站】机器人设计系列二十五:多技术融合赋能移动机器人自主定位:《移动机器人自主定位技术》核心内容全景解读(附下载)
【AI加油站】机器人设计系列二十六:从硬件到智能交互:《智能家居机器人设计与控制》全方位总结(附下载)
【AI加油站】机器人设计系列二十七:深度解析《自主移动机器人行为建模与控制》:多智能体协作的创新框架与实践(附下载)
【AI加油站】机器人设计系列二十八:从入门到精通!《走进乐高机器人》全方位指南:解锁机器人搭建与编程的乐趣(附下载)
【AI加油站】机器人设计系列二十九:《机器人时代战争》的变革、挑战与应对策略(附下载)
【AI加油站】机器人设计系列三十:从零打造 Arduino 机器人:从基础到进阶的全方位制作指南(附下载)
【AI加油站】机器人设计系列三十一:《BeagleBone 机器人开发指南》全维度解析:从基础搭建到多场景应用(附下载)
【AI加油站】机器人设计系列三十二:《机器人创新设计与制作》机器人创新蓝图:从工业应用到仿生设计的实战手册(附下载)
【AI加油站】机器人设计系列三十三:《机器人技术入门》从零开始学机器人:核心技术、设计软件与发展展望全梳理(附下载)
【AI加油站】机器人设计系列三十四:机器人进化史:从古代自动装置到未来智能伙伴(附下载)
【AI加油站】机器人设计系列三十五:《机器人与未来》:当硅基生命敲响人类之门(附下载)
【AI加油站】机器人设计系列三十六:穿越智能的星辰大海:人工智能全景导览(附下载)
【AI加油站】机器人设计系列三十七:穿越AI大脑:从逻辑推理到知识宇宙,一本书读懂人工智能的“思维”(附下载)
【AI加油站】机器人设计系列三十八:钢铁之蛇的逆袭:从蜿蜒爬行到障碍穿越,一本解锁未来机器人“蛇形智慧”的终极指南(附下载)
【AI加油站】机器人设计系列三十九:《双足步行机器人进化技术》从格斗舞台到宇宙梦想:一本带你亲手造出双足机器人圣经(附下载)
RPA 流程自动化系列推荐:
【AI加油站】RPA 流程自动化系列一:《机器人流程自动化魔力象限》市场格局、厂商优劣与选型指南(附PDF下载)
【AI加油站】RPA 流程自动化系列二:从RPA到APA:ProAgent引领的智能代理流程自动化革命(附PDF下载)
【AI加油站】RPA 流程自动化系列三:AUTONODE:认知 GUI 自动化的“神经-图式”自学习引擎全景解读(附PDF下载)
【AI加油站】RPA 流程自动化系列四:PromptRPA——面向智能手机的自然语言驱动机器人流程自动化系统综述(附PDF下载)
【AI加油站】RPA 流程自动化系列五:《FlowMind》:金融级智能工作流自动生成框架(附PDF下载)
【AI加油站】RPA 流程自动化系列六:GUIDE:开启认知驱动RPA时代的多模态GUI智能数据集全景解读(附PDF下载)
【AI加油站】RPA 流程自动化系列七:多模态基础模型如何破解企业自动化困局?ECLAIR 系统的突破与探索(附PDF下载)
【AI加油站】RPA 流程自动化系列八:SmartFlow:融合 LLM 与计算机视觉的智能机器人流程自动化系统解析(附下载)
【AI加油站】RPA 流程自动化系列九:以人为本:重塑自动化技术的未来 —— 从挑战到实践的全面探索(附PDF下载)
【AI加油站】RPA 流程自动化系列十:CAAP:仅通过前端 UI 解决计算机任务的上下文感知操作规划提示技术(附PDF下载)
面试推荐:
【AI加油站】AI面试专题一:BIO,NIO,AIO,Netty面试题(附下载)
【AI加油站】AI面试专题二:Git常用命令面试题(附下载)
【AI加油站】AI面试专题三:Java常用面试题(附下载)
【AI加油站】AI面试专题四:Linux系统的面试题集(附下载)
【AI加油站】AI面试专题五:Memcached 面试题集(附下载)
【AI加油站】AI面试专题六:MyBatis框架的面试题(附下载)
【AI加油站】AI面试专题七:MySQL相关的面试题资料(附下载)
【AI加油站】AI面试专题八:Netty面试题资料(附下载)
【AI加油站】AI面试专题九:Nginx的面试题资料(附下载)
【AI加油站】AI面试专题十:RabbitMQ的面试题资料(附下载)
【AI加油站】AI面试专题十一:Redis的面试题资料(附PDF下载)
【AI加油站】AI面试专题十二:Spring的面试题资料(附PDF下载)
【AI加油站】AI面试专题十三:Apache Tomcat的面试题资料(附PDF下载)
【AI加油站】AI面试专题十四:Zookeeper的面试题资料(附PDF下载)
【AI加油站】AI面试专题十五:《阿里巴巴Java开发手册》终极版的面试题资料(附PDF下载)
【AI加油站】AI面试专题十六:大数据技术面试题资料(附PDF下载)
【AI加油站】AI面试专题十七:Java并发多线程面试题资料(附PDF下载)
【AI加油站】AI面试专题十八:设计模式的面试题资料(附PDF下载)
【AI加油站】AI面试专题十九:Java虚拟机(JVM)的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十:Elasticsearch的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十一:TCP UDP Socket Http网络编程的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十二:消息队列Kafka的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十三:Spring Boot的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十四:Spring Cloud的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十五:Dubbo的面试题资料(附PDF下载)
大模型课程推荐:
【AI加油站】大模型课程系列一:大模型应用:从提示工程到AI智能体——系统化知识地图(附PDF下载)
【AI加油站】大模型课程系列二:大模型应用:从提示工程到AI智能体——系统化知识地图--合集(附PDF下载)
【AI加油站】大模型课程系列三:《大模型应用·第3章:大模型提示词》-大模型提示词设计七步法(附PDF下载)
【AI加油站】大模型课程系列四:《大模型应用·第4章:大模型辅助工作学习》一站式检索-办公-创作全攻略(附PDF下载)
【AI加油站】大模型课程系列五:《大模型应用·第5章:大模型检索增强》读懂大模型检索增强生成(RAG)全景(附PDF下载)
【AI加油站】大模型课程系列六:《大模型应用·第6章:大模型认知框架》从情景模仿到自我进化的7种思维范式(附PDF下载)
【AI加油站】大模型课程系列七:《大模型应用·第7章:大模型使用工具》-从“会聊天”到“能办事”的7个关键洞察(附PDF下载)
【AI加油站】大模型课程系列八:《大模型应用·第8章:AI智能体核心技术》-从单脑到群体协作的工程落地指南(附PDF下载)
【AI加油站】大模型课程系列九:《大模型应用·第9章:AI智能体开发平台》-从理论到落地的母婴助手案例解析(附PDF下载)
【AI加油站】大模型课程系列十:《大模型应用·第10章:AI智能体行业案例》-四大场景深度解析与实战指南(附PDF下载)

人工智能产业链联盟高端社区




图片
精选主题推荐:
Manus学习手册
从零开始了解Manus

DeepSeek 高级使用指南,建议收藏

一次性说清楚DeepSeek,史上最全(建议收藏)

DeepSeek一分钟做一份PPT

用DeepSeek写爆款文章?自媒体人必看指南

【5分钟解锁DeepSeek王炸攻略】顶级AI玩法,解锁办公+创作新境界!

DeepSeek接入个人微信!24小时智能助理,随时召唤!
PS×Deepseek:一句话编写PS脚本,搞定PS批量导出图层
如何让AI给自己打工,10分钟创作一条爆款视频?
荐:
【中国风动漫】《姜子牙》刷屏背后,藏着中国动画100年内幕!
【中国风动漫】除了《哪吒》,这些良心国产动画也应该被更多人知道!

【中国风动漫】《雾山五行》大火,却很少人知道它的前身《岁城璃心》一个拿着十米大刀的男主夭折!

图片
声明

免责声明:部分文章和信息来源于互联网,不代表本订阅号赞同其观点和对其真实性负责。如转载内容涉及版权等问题,请立即与小编联系(微信号:913572853),我们将迅速采取适当的措施。本订阅号原创内容,转载需授权,并注明作者和出处。如需投稿请与小助理联系(微信号:AI480908961)

编辑:Zero

图片


图片

图片

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/190217